"대화형 AI, 사용자가 감정적 의존하게 만들 우려"

세종=유현욱 기자 2024. 8. 10. 09:52
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있는 우려가 나왔다.

9일(현지시간) CNN에 따르면 오픈AI는 음성 지원이 가능한 새 AI 모델 'GPT-4o'와 관련 보고서에서 "사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다"고 우려했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI GPT-4o 관련 보고서 내놔
잘못된 정보를 맹신하게 만들 수도
오픈AI. AP연합뉴슈
[서울경제]

실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스가 사용자들을 AI에 감정적으로 의존하게 만들 수 있는 우려가 나왔다.

9일(현지시간) CNN에 따르면 오픈AI는 음성 지원이 가능한 새 AI 모델 ‘GPT-4o’와 관련 보고서에서 “사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다”고 우려했다.

GPT-4o는 오픈AI가 올해 5월 공개한 최신 인공지능 모델이다. 딱딱한 기계음이 아닌 자연스러운 사람 목소리를 내고 사용자와 실시간 음성 대화가 가능한 게 특징이다. 특히 GPT-4o에 사용된 AI 음성이 2013년 개봉작 영화 '허(Her)' 속 AI 비서 목소리의 주인공인 스칼릿 조핸슨의 육성과 비슷하다는 지적이 나오면서 논란이 일기도 했다.

오픈AI는 “사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다”며 “이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다”고 염려했다. 이어 생성형 AI가 잘못된 정보를 알려줄 수 있음에도 실제 사람처럼 말하는 AI는 사용자로 하여금 이를 맹신하게 할 수 있다고 지적했다.

오픈AI는 보고서에서 “AI를 ‘안전하게’ 만들기 위해 최선을 다하고 있다”며 “사용자의 잠재적인 ‘감정적 의존’에 대해 지속해서 연구할 계획”이라고 밝혔다.

세종=유현욱 기자 abc@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?