챗GPT가 거짓말하는 이유… “AI의 설계 문제다”

2023. 4. 14. 19:43
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

지난 3월 오픈AI가 공개한 GPT(Generative Pre-trained Transfomer)-4는 이전 버전 GPT-3보다 성능이 진화했다는 평가를 받지만, 여전히 거짓말을 한다.

오픈AI는 이전 버전에 비해 사실을 말할 가능성이 40% 높아졌다고 밝혔지만, GPT-4는 여전히 거짓말을 한다는 지적이 나온다.

이에, AI 업계는 GPT의 거짓말 문제를 완전히 해결하는 것을 어려울 것으로 전망한다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

지난 3월 오픈AI가 공개한 GPT(Generative Pre-trained Transfomer)-4는 이전 버전 GPT-3보다 성능이 진화했다는 평가를 받지만, 여전히 거짓말을 한다. AI 업계는 ‘설계상 한계’ 때문이라고 분석한다. GPT는 문장을 그럴싸하게 만들 뿐, 그 내용이 사실인지 거짓인지 판단하지 못하기 때문이다.

GPT는 수많은 문장 데이터를 학습해, 스스로 문장을 작성하는 오픈AI의 AI 대형언어모델이다. 이용자 질문에 답하는 ‘챗GPT’는 이러한 GPT를 활용해 만든 것이다.

GPT는 사람처럼 자연스러운 문장을 작성해 세계적인 화제를 모았지만, 종종 거짓말을 해 논란을 빚었다. ‘조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘’라는 가짜 내용을 묻는 질문을 받았을 때, 이를 실제 발생한 사건인 것처럼 설명한 것이 대표 사례다.

GPT에게 세종대왕의 맥북 던짐 사건을 물었을 때 나온 답, 출처=트위터(@yechanism_)


심지어 해외에서는 GPT가 무고한 사람을 성추행범으로 몰고 간 사례가 나와서, AI의 거짓말을 우려하는 목소리가 커졌다.

지난 4월 5일 워싱턴포스트(WP) 보도에 따르면, GPT는 ‘성추행을 저지른 법학자 5명을 알려달라’는 질문을 받고 조나단 털리라는 사람을 지목했다. 범행 경위도 ‘미국 알래스카로 가는 수학여행에서 그가 학생의 몸을 더듬었다’라고 구체적으로 설명했다. 하지만, 조나단 털리는 실제로 범죄를 저지른 적이 없었다. GPT는 근거로 WP의 기사를 제시했지만, 애초에 그런 기사는 존재하지도 않았다.

전문가들은 GPT가 문장을 그럴싸하게 만드는 것은 잘하지만, 문장의 사실 여부까지 판단하지는 못하기 때문에 거짓말을 한다고 말한다.

경희대학교 이경전 빅데이터응용학과 교수는 “GPT와 같은 자기회귀 AI 대형언어모델(예측을 통해 문장을 생성하는 모델)은 각 단어 뒤에 어떤 단어가 오는 것이 적절한지 계산해서 문장을 만든다”라고 설명했다.

GPT가 ‘나는 오늘~’로 시작하는 문장을 작성한다고 가정하자. 이때, 문장 뒤에는 ‘친구와 놀았다’, ‘밥을 먹었다’ ‘변호사다’ 등 다양한 내용이 올 수 있다. GPT는 이러한 다양한 내용과 ‘나는 오늘’이라는 문장의 관련성을 계산한 뒤, 가장 높은 점수가 나온 내용을 문장 뒤에 배치한다.

이런 설계 방식 때문에 GPT가 ‘거짓말’을 할 수밖에 없다는 주장도 나온다. 워싱턴대학교의 칼 버그스트롬 생물학과 교수는 미국 과학매체 ‘언다크’ 기고문에서 “GPT는 자신이 하는 말의 의미를 모른 채 ‘그럴싸한 답변’을 하도록 만들어졌다. 모르는 내용이 나오면 그저 추측해서 답을 내놓는다. 그래서, 거짓말을 하는 것이다”라고 말했다.

성능을 강화한 GPT-4의 경우도 사정은 다르지 않다. 오픈AI는 이전 버전에 비해 사실을 말할 가능성이 40% 높아졌다고 밝혔지만, GPT-4는 여전히 거짓말을 한다는 지적이 나온다.
GPT에게 제주도 흑돼지 맛집 을 물었을 때 나온 답, 출처=IT동아


이를 확인하기 위해 실제로 GPT에게 “제주도 흑돼지 맛집은 어디인지” 물어봤다. 그런데, 추천받은 네 곳 중 두 곳은 네이버, 구글의 검색창과 지도에서 검색해도 나오지 않았다. 그런데도, 메뉴와 주소까지 구체적으로 설명한 것이다.

이에, AI 업계는 GPT의 거짓말 문제를 완전히 해결하는 것을 어려울 것으로 전망한다. 가짜 정보나 편견이 포함된 데이터가 아니라 신뢰성 높은 논문과 서적만 학습한다 해도, GPT는 배운 단어를 그저 그럴싸하게 조합만 한다. 정작, 그렇게 만든 결과물이 사실인지 판단하는 능력은 부족하다.

경희대학교 이경전 교수는 “사람이 GPT에게 답을 가르쳐줘서 ‘거짓말’ 문제를 어느 정도 해결할 수는 있지만, 완전히 해결하는 것은 쉽지 않다. 그래서, AI가 항상 진실을 말하는 것이 아니라는 점을 유념해야 한다”고 조언했다.

동아닷컴 IT전문 정연호 기자 (hoho@itdonga.com)

Copyright © 동아일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?