오픈AI “사람처럼 대화하는 AI, 사용자의 감정적 의존 우려”

배문규 기자 2024. 8. 11. 11:06
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI 로고. 로이터연합뉴스

챗GPT 개발사 오픈AI는 실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있다고 우려했다.

11일 오픈AI가 홈페이지에 공개한 보고서를 보면 음성지원 AI 모델 GPT-4o는 ‘정서적 의존성’의 위험을 안고 있으며, 사용자의 대인관계에도 악영향을 끼칠 수 있는 것으로 분석됐다.

오픈AI가 지난 5월 선보인 GPT-4o는 음성 인식, 텍스트 이해, 이미지 인식 등이 통합돼 사용자와 실시간 상호작용이 가능한 멀티모달(Multimodal·다중 모드) AI 모델이다. 기계음이 아닌 자연스러운 사람 목소리로 음성 대화가 가능해 인간이 AI 비서와 사랑에 빠지는 내용의 영화 <허(Her)> 속 AI가 현실이 됐다는 평가를 받았다. 하지만 GPT-4o에 사용된 AI 음성이 영화 <허>에 나오는 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 목소리와 비슷하다는 지적이 나오면서 논란에 휩싸였다.

오픈AI는 보고서에서 “사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”고 밝혔다. 인간이 AI와 사랑에 빠지는 영화 속 허구가 현실이 될 수도 있다는 것이다.

오픈AI는 “(AI와의 관계 형성은) 외로운 개인에게 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다”고 판단했다. 또 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 AI가 마치 실제 사람처럼 말하는 것은 사용자가 AI를 더욱 신뢰하게 만들 수 있다고 지적했다.

GPT-4o는 AI의 음성 답변이 이뤄지는 도중에도 사용자가 끼어들어 ‘마이크를 잡을 수 있도록’ 설계됐다. 이러한 방식은 기존 대화 규범과는 어긋나 장기적으로는 사람들 간의 사회적 상호작용에도 영향을 끼칠 수 있다고 오픈AI는 평가했다.

오픈AI는 “AI를 안전하게 만들기 위해 최선을 다하고 있으며 사용자의 잠재적인 감정적 의존에 대해 지속해서 연구할 계획”이라고 밝혔다.

이번 분석은 외부 전문가로 구성된 ‘레드팀’을 통해 진행됐다. 4가지 평가 분야 중 사이버 보안, 생체 위협, 모델 자율성은 위험도가 낮았으나, 설득력 측면에선 인간보다 AI가 일부 높게 나타나 위험 수준이 ‘중간’으로 평가됐다.

배문규 기자 sobbell@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?