챗GPT 개발자 “AI, 가장 위대한 기술 될 수도…단 ‘부조종사’로만 써야”
생성형 인공지능(AI) ‘챗GPT’ 개발사 오픈AI의 샘 올트먼 최고경영자(CEO)가 AI 기술이 위험하게 사용될 수 있다며 우려의 목소리를 냈다. 새로 공개된 GPT-4의 경우도 “지어낸 이야기를 사실인 것처럼 내세울 수 있다”고 지적했다.
올트먼 CEO는 17일(현지시간) 미국 ABC뉴스와의 인터뷰에서 “위험이 따르지만, 인간이 개발한 가장 위대한 기술이 될 수도 있다”며 “우리는 이 부분에 대해 조심스러워야 한다”고 말했다.
이번 인터뷰는 오픈AI가 지난 14일 공개한 새로운 대규모언어모델(LLM)인 ‘GPT-4’ 출시에 맞춰 진행됐다. 기존 모델은 3000 단어 수준의 텍스트를 처리할 수 있었지만, GPT-4는 2만5000단어 이상을 한 번에 분석한다. 모의 변호사 시험 등 각종 시험에서 상위 10% 수준의 성적을 기록했고, 대부분의 프로그래밍 언어로 컴퓨터 코드를 능숙하게 짤 수 있다. 특히 텍스트뿐 아니라 이미지를 보고 이해하는 능력도 갖췄다.
올트먼은 그러나 GPT-4에 대해서도 “완벽하지는 않다”며 이런 기술이 위험하게 사용될 수 있다는 두려움에 밤잠을 이루지 못한다고 했다. 그는 AI가 대규모 허위 정보 유포와 사이버 공격 등에 사용될 수 있다는 점을 우려했다. 그러면서 “우리와 달리 안전장치를 두지 않지 않는 사람들이 있을 수 있다”며 “이들을 어떻게 다뤄야 할지, 어떻게 제한해야 할지 살필 수 있는 시간은 많지 않을 것”이라고 말했다.
그는 GPT-4 같은 대규모언어모델을 “팩트 데이터베이스가 아닌 추론 엔진”으로 봐야 한다고 강조했다. 언어에 대한 이해도를 높이고 다음에 올 단어를 예측하는 모델이지, 정보를 기억하고 전달하는 목적의 모델이 아니라는 취지다.
올트먼은 GPT-4가 기존 ‘GPT-3.5’보다 정확도가 40% 이상 높아졌지만, 이를 정보의 주요 출처로 사용해서는 안된다고도 지적했다. 거짓을 사실처럼 보이게 하는 이른바 ‘환각(hallucination) 현상’에 주의해야 한다는 입장이다.
AI가 일자리를 빼앗을 가능성에 대해서는 “인류는 거대한 기술적 전환에 완벽하게 적응해왔다”면서도 “하지만 한 자릿수의 해가 지나는 동안 기술전환이 일어날 수 있다는 점은 우려되는 부분”이라고 했다.
교육 과정에 챗GPT가 사용되는 데 대해서는 “개인별 학습이 가능하다는 건 가장 흥분되는 지점”이라며 어떠한 영역에서든 AI가 일종의 ‘부조종사’(co-pilot)로 활용되길 바란다고 말했다.
이재덕 기자 duk@kyunghyang.com
Copyright © 경향신문. 무단전재 및 재배포 금지.
- [단독] 홍준표 “한동훈 면담 두 번 거절…어린 애가 설치는 게 맞나”
- ‘성 비위’ 논란 박정현 교총 회장, 제자에게 “나의 여신님” “당신 오는 시간 늘 떨렸다”
- 손웅정, 아동학대 혐의 피소 “사랑이 전제되지 않는 언행과 행동은 결코 없지만 반성하겠다··
- 단속 경찰, 성매매 업소 몰래 녹음·촬영···대법 “적법한 증거”
- [단독]대통령실, 비서관 5명 대거 인사 검증···박성중 전 의원 과기부 장관 유력 검토
- 정부·여당 뜻대로 했으면…‘화성 참사’ 아리셀, 중대재해법 피할 뻔했다
- ‘완득이’ ‘우동 한 그릇’ 연출한 원로 연극인 김동수 별세
- 사파리 구역서 조깅하던 30대 여성, 늑대들에 물려 중상
- ‘손흥민 부친’ 손웅정, 아동학대 혐의 피소 “사랑 전제되지 않은 언행과 행동 없었다”
- 폭스바겐, 전기차 리비안에 7조원 투자···시간외 주가 50% 폭등