
(서울=뉴스1) 김대식 한국과학기술원(KAIST) 교수 = 챗GPT는 GPT-3.5 그리고 InstructGPT라는 거대언어모델(LLM)을 기반으로 한 OpenAI사의 대화모델이다. 그런데 최근 OpenAI는 차세대 언어모델인 GPT-4를 소개했다.
그렇다면 GPT-4의 새로운 능력과 기능은 무엇일까? 물론 전체적인 성능 향상도 있겠지만, 우선 안정성과 팩트 체크 기능을 대폭 증가했다고 한다. 챗GPT의 가장 큰 문제였던 '망상', 그러니까 문법과 문맥적으로 그럴싸한 거짓을 만들어 내는 문제가 조금이나마 해결된 것으로 보인다.
더구나 문장과 문서를 통해서만 정보를 습득하던 기존 챗GPT와는 달리 GPT-4는 사진과 그림을 이해하고 '대화'를 나눌 수 있다고 한다. 냉장고 속 사진을 찍어 "이 재료로 무슨 음식을 만들 수 있을까?"라고 물으면 요리법을 가르쳐 주는 그런 형식이겠다.
OpAI사에 천문학적 금액을 투자한 마이크로소프트는 이미 GPT-4를 오피스 소프트웨어에 포함시키고 있다고 한다. AI의 도움으로 자동으로 편지를 쓰고, 키워드 몇 개만 입력하면 파워포인트 슬라이드가 자동으로 만들어지는 SF 같은 일들이 2023년에 현실이 될 수 있다는 말이다.
하지만 챗GPT는 생성형AI 시대의 시작일 뿐이다. 구글사는 문장을 음악으로 표현해주는 '뮤직ML'을 개발 중이고, 런웨이 리서치의 'Gen-2'는 입력된 문장을 단순히 그림이 아닌 동영상으로 생성시켜준다.
누구나 퓰리처상 수준의 기사, 아티스트 수준의 그림, 그리고 할리우드 스타일 특수효과가 추가된 동영상을 만들 수 있는 진정한 의미에서의 1인 크리에이터 시대가 멀지 않아 보인다.
사냥과 채집 시절 인류는 배가 고프면 사냥을 하러 나가야 했지만, 음식과 재료가 우리에게 올 수 있는 시대에 살고 있는 21세기 인류는 무엇을 먹을 건지 고르기만 하면 된다. 그렇다면 비슷한 일이 정보와 컨텐츠의 세상에서도 벌어지고 있는 건 아닐까?
정보가 필요하면 '정보사냥'을 위해 '인터넷 서핑'을 해야 했던 인류. 어쩌면 20~30년 후 어린 친구들은 '인터넷 검색'이란 단어를 무의미하게 여기고, 기계가 인간과 대화를 나누지 못했던 시대가 있었다는 사실을 신기해할 수도 있겠다.
daeshik@gmail.com
편집자주 ...필자 김대식은 뇌과학자이며 한국과학기술원(KAIST) 전기및전자공학부 교수다. 주요 연구 분야는 뇌과학, 뇌공학, 인공지능이다. 뇌과학의 최신 연구 성과와 인문학 지식을 바탕으로 인류의 과거, 현재, 미래를 성찰해 왔다. 독일 막스플랑크연구소에서 뇌과학으로 박사학위를 받았고, 미국 MIT에서 박사후과정을 보냈다. '챗GPT에게 묻는 인류의 미래', '김대식의 인간 vs 기계', '김대식의 빅퀘스천', '메타버스 사피엔스' 등을 썼다.