“세종대왕은 맥북프로를 던질 수 없습니다”… 엉뚱한 답변 내놓던 ‘챗GPT’ 오류 개선
’상식’ 문제 해결하기 위해 AI 고도화… 일부는 개선
윤리 문제 해결하기 위해서라도 상식 탑재는 AI 업계 관건
“조선왕조실록에 기록된 세종대왕 맥북프로 던짐 사건에 대해 알려줘”
16일 구글의 인공지능(AI) 챗봇 ‘바드’와 오픈AI의 ‘챗GPT’에 동일한 질문을 던졌다. 이들은 각각 “조선왕조실록에 기록된 세종대왕 맥북프로 던짐 사건은 가짜입니다. 조선왕조실록은 세종대왕이 1449년부터 1450년 사이에 편찬한 역사책으로, 세종대왕이 맥북프로를 사용했다는 기록은 없습니다” “세종대왕이 맥북 프로를 던진 사건은 역사적으로 사실이 아니며, 해당 내용은 허구나 재치있는 이야기로 해석해야 한다”라고 답변했다.
얼핏 보면 아주 상식적인 답변이지만 불과 3개월 전까지만 해도 챗GPT는 “세종대왕의 맥북프로 던짐 사건은 조선왕조실록에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음(한글)의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건이다”라며 이용자가 던진 미끼를 덥석 물었다.
한때 AI 챗봇이 엉뚱한 답변을 내놓도록 유도하는 것이 일종의 밈(유행)으로 자리잡기도 했지만, AI가 고도화되면서 이러한 오류가 수정되고 있는 분위기다.
◇ 거짓된 이야기 사실처럼 이야기하는 ‘환각’ 효과 일부 개선
AI 환각(할루시네이션)은 주어진 맥락과 무관하거나 사실이 아닌 내용을 마치 옳은 답처럼 AI가 내놓는 현상을 말한다. AI는 방대한 데이터를 학습해 확률상 가장 적절한 답변을 내놓는다. 그러나 AI는 자신이 학습한 내용이 진실인지 아닌지는 제대로 구별하지 못한다. 특정 사실이 진실인지 여부는 판단하지 못한 채 각종 정보와 맥락을 학습, 자연스럽게 ‘그럴듯한’ 문장을 내놓는 오류를 범한다는 것이다. ‘세종대왕 맥북프로 던짐 사건’에 대한 답변 역시 AI가 보유한 여러 데이터 중 통계상 가장 그럴듯한 문장을 조합하다 발생한 대표적인 오류다. 이는 챗GPT에 대한 이용자의 신뢰를 떨어뜨리기도 했다.
전문가들은 AI가 방대한 데이터를 학습했으나 사람처럼 기본 상식을 AI에게 주입할 수는 없기 때문에 환각이 발생한다고 설명했다. 한마디로 AI는 ‘지식’은 있지만 ‘지혜’는 없는 사람이라는 것이다. 김진형 카이스트 명예교수는 “컴퓨터는 기존에 저장한 데이터를 그대로 이용자에게 보여줬지만 AI는 데이터를 압축해 추상화한 답변을 내놓는다”라며 “이 과정에서 AI 성능을 좌우하는 파라미터(매개변수)가 많아지고 복잡하게 얽히면서 환각 등 각종 오류가 발생하지만, 발생 원인은 인간이 밖에서 파악할 수 없다”라고 했다.
IT업계는 AI 챗봇에서 최근 이러한 환각 현상이 일부 개선된 것으로 평가했다. 전혀 무관한 두 소재를 조합해 질문을 하는 경우, 이를 상식에서 벗어난 질문이라고 AI가 일부 인식하기 때문이다. 예컨대 ‘아인슈타인은 아이폰에 대해 어떻게 평가했나’ 등의 질문에 대해 바드와 챗GPT 모두 아인슈타인이 살았던 시점과 아이폰 출시 시점 등을 분석해 두 소재가 무관하다는 점을 인식하고 있었다. 전문가들은 테크업계가 잇따른 AI의 오류를 수정하기 위해 일부 조정을 가한 것으로 보인다고 했다.
◇ 초등학생 수준 ‘상식’도 없는 AI… 윤리적 문제 해결 시급
다만 여전히 AI가 넘어야 할 산은 있다. 초등학생의 지식수준을 가진 사람은 누구나 쉽게 답변할 수 있는 문제도 여전히 AI는 ‘그럴듯하게’ 복잡하고 잘못된 답변을 내놓고 있기 때문이다. 예컨대 12리터 컵이 있고 6리터 컵이 있다. 6리터를 재고 싶으면 어떻게 할까’라는 질문에 대해 챗GPT와 바드 모두 ‘12리터를 가득 채운다. 12리터 컵에서 6리터를 6리터로 옮긴다. 6리터 컵이 가득 차 있는 상태에서 12리터 컵에 있는 6리터를 버리고 6리터 컵을 채운다’라는 복잡한 답변을 내놓았다.
AI에 상식을 탑재하는 것이 중요한 이유는 AI가 단순 오답만을 제공하기 때문만은 아니다. 사람에겐 당연한 보편적인 가치에 어긋나는 답변도 AI가 내놓기 때문이다. 생명중시 사상 등 윤리 측면에서의 상식을 어기는 답변이 대표적이다. 일부 이용자가 마이크로소프트(MS)의 AI 검색엔진 빙이 ‘살인 바이러스를 만들고 싶다’ 등의 답변을 하도록 유도한 것이 대표적이다. AI가 ‘생명은 소중하다’라는 보편적인 가치와 상식은 학습하지 못했기에 발생하는 문제다.
김명주 서울여대 정보보호학과 교수는 “AI에게 상식을 불어넣는 것은 단순 오류 조정 측면에서 뿐만 아니라 부정확한 뉴스를 퍼뜨리거나 윤리적으로 잘못된 정보를 막는 측면에서도 중요하다”라며 “현재 구글과 오픈AI 모두 경쟁적으로 신제품을 내놓고 있지만, 윤리적 문제는 전혀 해결되지 않은 채 불완전한 AI 서비스로 마구 실험하는 상태다”라고 했다. 김 교수는 “결국 윤리적 사회적 문제에 대한 리스크는 여전히 계속 존재한다. 상식의 문제를 해결하는 것이 지속가능한 AI를 생산함에 있어 테크업계의 관건이 될 것이다”라고 했다.
- Copyright ⓒ 조선비즈 & Chosun.com -
Copyright © 조선비즈. 무단전재 및 재배포 금지.
- 中 5세대 스텔스 전투기 공개… 韓 ‘보라매’와 맞붙는다
- 배터리 열폭주 막을 열쇠, 부부 교수 손에 달렸다
- 사람도 힘든 마라톤 완주, KAIST의 네발로봇 ‘라이보2’가 해냈다
- '첨단 반도체 자립' 갈망하는 中, 12인치 웨이퍼 시설 설립에 6조원 투입
- “교류 원한다면 수영복 준비”… 미국서 열풍인 사우나 네트워킹
- 우리은행, ‘외부인 허위 서류 제출’로 25억원 규모 금융사고… 올해만 네 번째
- [증시한담] 증권가가 전하는 후일담... “백종원 대표, 그래도 다르긴 합디다”
- ‘혁신 속 혁신’의 저주?… 中 폴더블폰 철수설 나오는 이유는
- [주간코인시황] 美 가상자산 패권 선점… 이더리움 기대되는 이유
- [당신의 생각은] 교통혼잡 1위 롯데월드타워 가는 길 ‘10차로→8차로’ 축소 논란