챗GPT 개발자 “AI, 가장 위대한 기술 될 수도…단 ‘부조종사’로만 써야”

이재덕 기자 2023. 3. 17. 19:24
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI의 샘 올트먼 최고경영자(CEO)가 지난달 7일 챗GPT 기술이 적용된 MS 검색 엔진 ‘빙’의 공개 행사에서 발언하고 있다. AP연합뉴스.

생성형 인공지능(AI) ‘챗GPT’ 개발사 오픈AI의 샘 올트먼 최고경영자(CEO)가 AI 기술이 위험하게 사용될 수 있다며 우려의 목소리를 냈다. 새로 공개된 GPT-4의 경우도 “지어낸 이야기를 사실인 것처럼 내세울 수 있다”고 지적했다.

올트먼 CEO는 17일(현지시간) 미국 ABC뉴스와의 인터뷰에서 “위험이 따르지만, 인간이 개발한 가장 위대한 기술이 될 수도 있다”며 “우리는 이 부분에 대해 조심스러워야 한다”고 말했다.

이번 인터뷰는 오픈AI가 지난 14일 공개한 새로운 대규모언어모델(LLM)인 ‘GPT-4’ 출시에 맞춰 진행됐다. 기존 모델은 3000 단어 수준의 텍스트를 처리할 수 있었지만, GPT-4는 2만5000단어 이상을 한 번에 분석한다. 모의 변호사 시험 등 각종 시험에서 상위 10% 수준의 성적을 기록했고, 대부분의 프로그래밍 언어로 컴퓨터 코드를 능숙하게 짤 수 있다. 특히 텍스트뿐 아니라 이미지를 보고 이해하는 능력도 갖췄다.

올트먼은 그러나 GPT-4에 대해서도 “완벽하지는 않다”며 이런 기술이 위험하게 사용될 수 있다는 두려움에 밤잠을 이루지 못한다고 했다. 그는 AI가 대규모 허위 정보 유포와 사이버 공격 등에 사용될 수 있다는 점을 우려했다. 그러면서 “우리와 달리 안전장치를 두지 않지 않는 사람들이 있을 수 있다”며 “이들을 어떻게 다뤄야 할지, 어떻게 제한해야 할지 살필 수 있는 시간은 많지 않을 것”이라고 말했다.

그는 GPT-4 같은 대규모언어모델을 “팩트 데이터베이스가 아닌 추론 엔진”으로 봐야 한다고 강조했다. 언어에 대한 이해도를 높이고 다음에 올 단어를 예측하는 모델이지, 정보를 기억하고 전달하는 목적의 모델이 아니라는 취지다.

올트먼은 GPT-4가 기존 ‘GPT-3.5’보다 정확도가 40% 이상 높아졌지만, 이를 정보의 주요 출처로 사용해서는 안된다고도 지적했다. 거짓을 사실처럼 보이게 하는 이른바 ‘환각(hallucination) 현상’에 주의해야 한다는 입장이다.

AI가 일자리를 빼앗을 가능성에 대해서는 “인류는 거대한 기술적 전환에 완벽하게 적응해왔다”면서도 “하지만 한 자릿수의 해가 지나는 동안 기술전환이 일어날 수 있다는 점은 우려되는 부분”이라고 했다.

교육 과정에 챗GPT가 사용되는 데 대해서는 “개인별 학습이 가능하다는 건 가장 흥분되는 지점”이라며 어떠한 영역에서든 AI가 일종의 ‘부조종사’(co-pilot)로 활용되길 바란다고 말했다.

이재덕 기자 duk@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?