“AI 챗봇에 선거정보 물었더니...3개 중 1개 오답”

박지민 기자 2023. 12. 16. 13:33
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

마이크로소프트의 챗봇 빙 로고와 그 웹사이트 모습. /AP 연합뉴스

챗GPT를 비롯한 인공지능(AI) 기반 챗봇이 내놓는 선거 관련 정보의 오답률이 30%를 넘는다는 연구 결과가 나왔다.

15일(현지 시각) 미 워싱턴포스트(WP)는 유럽의 알고리즘 조사 기관인 AI 포렌식과 알고리즘워치의 보고서를 인용해 마이크로소프트의 빙 챗봇이 선거 정보에 대해 내놓은 답변 3개 중 1개는 오류를 포함했다고 보도했다.

이들은 최근 실시된 스위스 연방정부, 독일 헤센주 및 바이에른주 선거와 관련해 2개월에 걸쳐 빙 챗봇에 던진 1000개가 넘는 질문을 통해 이런 결과를 얻었다고 밝혔다. 내년 미국 대선과 관련해서도 잘못된 대답을 내놨다고 보고서는 적었다.

부정확한 내용에는 잘못된 선거 날짜와 투표 번호를 제시하거나, 경선에서 탈락한 후보자를 주요 경쟁자로 나열하고 후보자에 대한 잘못된 논란을 제시하는 행위가 포함됐다. 특히 영어가 아닌 다른 언어로 질문할 때 오류가 더 많은 것으로 나타났다. 같은 질문을 영어로 했을 때 오류율은 20%였는데, 프랑스어로는 24%, 독일어로는 오류율이 37%에 달했다.

연구는 마이크로소프트의 빙에 초점을 맞췄지만, 이 같은 문제가 빙에 한정되는 것은 아니라고 지적했다. 챗GPT 개발사 오픈AI의 GPT-4에 대한 예비 테스트에서도 비슷한 종류의 부정확성이 발견됐다는 것이다.

워싱턴포스트는 “챗봇의 잘못된 정보가 선거 결과에 영향을 미쳤다고 주장하는 것은 아니”라면서도 “오늘날 AI 챗봇이 향후 선거에 관한 혼란과 잘못된 정보에 기여할 수 있다는 우려를 뒷받침한다”고 했다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?