오픈AI “사람처럼 대화하는 AI, 사용자의 감정적 의존 우려”
챗GPT 개발사 오픈AI는 실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있다고 우려했다.
11일 오픈AI가 홈페이지에 공개한 보고서를 보면 음성지원 AI 모델 GPT-4o는 ‘정서적 의존성’의 위험을 안고 있으며, 사용자의 대인관계에도 악영향을 끼칠 수 있는 것으로 분석됐다.
오픈AI가 지난 5월 선보인 GPT-4o는 음성 인식, 텍스트 이해, 이미지 인식 등이 통합돼 사용자와 실시간 상호작용이 가능한 멀티모달(Multimodal·다중 모드) AI 모델이다. 기계음이 아닌 자연스러운 사람 목소리로 음성 대화가 가능해 인간이 AI 비서와 사랑에 빠지는 내용의 영화 <허(Her)> 속 AI가 현실이 됐다는 평가를 받았다. 하지만 GPT-4o에 사용된 AI 음성이 영화 <허>에 나오는 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 목소리와 비슷하다는 지적이 나오면서 논란에 휩싸였다.
오픈AI는 보고서에서 “사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”고 밝혔다. 인간이 AI와 사랑에 빠지는 영화 속 허구가 현실이 될 수도 있다는 것이다.
오픈AI는 “(AI와의 관계 형성은) 외로운 개인에게 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다”고 판단했다. 또 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 AI가 마치 실제 사람처럼 말하는 것은 사용자가 AI를 더욱 신뢰하게 만들 수 있다고 지적했다.
GPT-4o는 AI의 음성 답변이 이뤄지는 도중에도 사용자가 끼어들어 ‘마이크를 잡을 수 있도록’ 설계됐다. 이러한 방식은 기존 대화 규범과는 어긋나 장기적으로는 사람들 간의 사회적 상호작용에도 영향을 끼칠 수 있다고 오픈AI는 평가했다.
오픈AI는 “AI를 안전하게 만들기 위해 최선을 다하고 있으며 사용자의 잠재적인 감정적 의존에 대해 지속해서 연구할 계획”이라고 밝혔다.
이번 분석은 외부 전문가로 구성된 ‘레드팀’을 통해 진행됐다. 4가지 평가 분야 중 사이버 보안, 생체 위협, 모델 자율성은 위험도가 낮았으나, 설득력 측면에선 인간보다 AI가 일부 높게 나타나 위험 수준이 ‘중간’으로 평가됐다.
배문규 기자 sobbell@kyunghyang.com
Copyright © 경향신문. 무단전재 및 재배포 금지.
- [단독] 강혜경 “명태균, 허경영 지지율 올려 이재명 공격 계획”
- “아들이 이제 비자 받아 잘 살아보려 했는데 하루아침에 죽었다”
- 최현욱, 키덜트 소품 자랑하다 ‘전라노출’···빛삭했으나 확산
- 수능문제 속 링크 들어가니 “김건희·윤석열 국정농단 규탄” 메시지가?
- 윤 대통령 ‘외교용 골프’ 해명에 김병주 “8월 이후 7번 갔다”···경호처 “언론 보고 알아
- 이준석 “대통령이 특정 시장 공천해달라, 서울 어떤 구청장 경쟁력 없다 말해”
- “집주인인데 문 좀···” 원룸 침입해 성폭행 시도한 20대 구속
- 뉴진스 “민희진 미복귀 시 전속계약 해지”…어도어 “내용증명 수령, 지혜롭게 해결 최선”
- 이재명 “희생제물 된 아내···미안하다, 사랑한다”
- ‘거제 교제폭력 사망’ 가해자 징역 12년…유족 “감옥 갔다 와도 30대, 우리 딸은 세상에 없어