영화 ‘허’처럼 사람 같은 AI… “감정적 의존하게 돼”

윤진호 기자 2024. 8. 10. 09:06
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI, ‘GPT-4o’ 쟁점 보고서 공개
/오픈AI

챗GPT 개발사 오픈AI는 생성형 인공지능(AI)이 사용자들을 AI에 감정적으로 의존하게 만들 수 있는 위험이 있다고 우려했다. 9일 CNN에 따르면, 오픈AI는 음성 지원이 가능한 새 AI 모델 ‘GPT-4o’(GPT-포오)와 관련해 내놓은 보고서에서 이처럼 지적했다.

GPT-4o는 오픈AI가 지난 5월 공개한 최신 인공지능 모델이다 딱딱한 기계음이 아닌 자연스러운 사람 목소리를 내고 사용자와 실시간 음성 대화가 가능한 게 특징이다.

서비스 첫 공개 당시 인간이 AI 비서와 사랑에 빠지는 내용의 2013년 개봉작 영화 ‘허’(Her) 속 AI가 현실이 됐다는 평가를 받으며 큰 주목을 받았다. GPT-4o에 사용된 AI 음성이 영화 ‘허’ 속 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 목소리와 비슷하다는 지적이 나오면서 논란이 되기도 했다.

오픈AI는 보고서에서 “사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”라고 우려했다. 영화 속에서 AI와 사랑에 빠진 주인공 모습이 더는 영화 속 허구가 아닐 수 있다는 점을 지적한 것이다.

오픈AI는 “사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다”며 “이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다”라고 판단했다.

5월13일(현지 시각) 챗GPT 개발사 오픈AI가 새로운 인공지능(AI) 모델인 'GPT-4o'(GPT-포오)를 공개했다. /오픈AI 유튜브

또한 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 AI가 마치 실제 사람처럼 말하면 사용자가 AI의 잘못된 정보조차 믿게 만들 수 있다고 지적했다. 오픈AI는 GPT-4o의 음성 모드 기능이 장기간에 걸쳐 사람들 간의 정상적인 사회적 상호작용 방식에도 영향을 미칠 수 있다고 평가했다.

GPT-4o의 음성 모드는 AI의 음성 답변이 이뤄지는 도중 사용자가 언제든지 개입해 답변을 멈추고 사용자의 음성을 입력할 수 있게 설계됐는데 이 같은 기능설계가 사람 간 상호작용 방식에 영향을 미칠 수 있다고 본 것이다.

오픈AI는 보고서에서 “AI를 ‘안전하게’ 만들기 위해 최선을 다하고 있으며 사용자의 잠재적인 ‘감정적 의존’에 대해 지속해서 연구할 계획”이라고 밝혔다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?