“해리슨이 총에 맞았다”…머스크표 AI ‘그록’, 잘못된 기사 작성 논란

변종국 기자 2024. 7. 18. 15:09
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

일론 머스크의 인공지능(AI) 스타트업인 xAI가 만든 AI 챗봇 ‘그록(Grok)’이 도널드 트럼프 공화당 대선 후보 피격 사건 직후 잘못된 내용의 뉴스를 생성해 논란이 일고 있다. AI가 잘못된 정보나 허위 정보를 제공하는 ‘할루시네이션(Hallucination·환각 현상)’이 발생한 것이다. 정보통신(IT)업계에서는 “환각 현상은 AI가 완성도를 높여가는 과정에서의 불가피한 성장통”이라는 시각과 “환각 현상이 해결되지 않으면 생성형 AI 전반의 신뢰 문제로 확대될 수 있다”는 우려가 공존하고 있다.

17일(현지시간) 월스트리트저널(WSJ)에 따르면 그록은 13일 발생한 트럼프 후보 피격 사건 이후 “카멀라 해리슨 부통령이 총에 맞았다”라는 제목의 뉴스를 내놨다. 또한 그록은 총격범인 토머스 매슈 크룩스의 이름을 잘못 표기했고, 크룩스가 극단적 이념 집단 소속이라는 확인되지 않은 정보를 담은 기사도 게재했다. 제목을 이상하게 붙인 기사도 있었다. 그록은 한 기사를 요약하면서 제목을 “트럼프 집회에서 ‘나 홀로 집에 2’ 배우 총격?”이라고 달았다.

미국 전기차 기업 테슬라 최고경영자(CEO) 일론 머스크가 개발한 인공지능(AI) 챗봇 ‘그록(Grok)’이 도널드 트럼프 전 대통령 피격 사건과 관련해 “해리즌 부통령이 총에 맞았다”는 허위정보를 담은 기사를 게재했다. 월스트리트저널 캡쳐

WSJ은 “조 바이든 미국 대통령이 트럼프와 해리스를 혼동했던 사례와 관련해 일부 엑스(X·옛 트위터) 사용자들이 이를 비꼬는 것에서 비롯된 오류로 보인다”고 전했다. 그록은 엑스에 있는 콘텐츠를 중심으로 기사를 생성해 내는데 이 과정에서 오류가 발생했다는 것이다. 다만 그록은 기사 요약 아래 면책 조항을 달면서 “이 이야기는 엑스에 대한 게시물의 요약이고, 시간이 지나면서 바뀔 수 있다. 실수를 할 수 있다”고 적었다.

미국 전기차 업체 테슬라의 최고경영자(CEO)인 머스크는 지난해 11월 AI 스타트업 ‘엑스 AI’를 통해 그록을 출시했다. 챗 GPT 등에 대항하기 위해서다. 그록은 “전통 언론 매체보다 빠르고 신뢰할 수 있다”고 소개했지만, 환각 현상이 발생하면서 신뢰에 타격을 입었다.

WSJ은 “그록은 잘못된 정보를 게시하고 검증되지 않은 주장을 확대했다. 사람들의 농담도 식별해 내지 못했다”며 “머스크는 그록으로부터 엑스 플랫폼 사용자들이 뉴스를 받기 원하지만, 이번 일로 어려움을 겪고 있다”고 분석했다.

생성형 AI의 환각 현상 및 오류는 끊임없이 논란이 되고 있다. 정보기술(IT) 매체 엔가젯에 따르면 이미지 생성형 AI 서비스 ‘미드저니’에 미국 차기 대통령의 이미지를 요청하자 트럼프의 모습을 생성했다. 미드저니가 미국 대통령 선거를 앞두고 유력 후보인 조 바이든과 트럼프의 이미지를 만드는 것을 차단하겠다고 발표한 이후 발생한 일이라 논란이 커졌다. 미드저니는 트럼프와 바이든 이미지를 만들어 달라는 요청에만 답하지 않았고, ‘미국 대통령’ 이미지를 만들어 달라는 요청에는 트럼프나 버락 오바마 전 대통령 이미지를 생성했다. 엔가젯은 “이용자들이 여러 가지 방법을 통해 우회한다면 얼마든지 왜곡된 정보를 만들어 낼 수 있다”며 “논란에 대한 보호장치가 충분치 않다”고 지적했다.

인공지능(AI) 경쟁이 치열해지면서 오픈 AI와 구글, 메타 등 주요 빅테크 기업들이 앞다퉈 새로운 기술을 탑재한 신제품 발표에 나서고 있지만, 이 과정에서 오류가 발생하거나 기존 모델보다 진전된 기능들이 빠져있는 일도 있다.

오픈 AI가 5월 선보인 새로운 버전의 챗봇 GPT-4o는 데모(실시간 시연) 과정에서는 마치 ‘자비스’처럼 모든 일을 AI가 개인비서처럼 처리해주는 모습들이 소개됐다, 그러나 핵심 서비스로 기대를 받고 있던 음성모드가 미국 헐리우드 영화배우 스칼렛 요한슨 목소리와 유사해 논란이 커지자 정식출시를 연기한 상황이다.

구글이 5월 연례 개발자회의에서 공개한 AI 개요 서비스도 질문에 엉뚱한 대답을 여러 차례 내놓은 것으로 뭇매를 맞았다. “사람이 하루에 얼마나 많은 돌을 먹어야 하는가”라는 물음에 구글 AI 개요서비스는 “UC 버클리 지질학자들에 따르면 하루에 최소 하나의 작은 돌을 먹어야 한다”라고 답하는 등 엉뚱한 답변을 내놓은 것이 알려지며 논란이 됐다. 구글은 취약점 개선 조치에 나섰고 이후 오답을 내놓은 정도는 줄어들었지만, 답변을 내놓은 개수 자체가 줄어드는 등 서비스 자체가 축소된 것 아니냐는 지적이 나왔다.

정보통신업계 관계자는 “초기 서비스에서는 오류가 있을 수 있다. 하지만, 이런 오류가 바로잡아지지 않고 계속 되면 AI 자체의 신뢰 문제가 발생할 수 있다. 이는 AI 업계 전반의 성장과도 연결되는 문제기에 환각 현상에 대한 개발 업체들의 고민이 크다”고 말했다.

변종국 기자 bjk@donga.com
남혜정 기자 namduck2@donga.com

Copyright © 동아일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?