오픈AI, GPT-4o 초현실 음성기능 제한적 공개

이상덕 기자(asiris27@mk.co.kr) 2024. 7. 31. 09:03
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

오픈AI는 챗GPT의 고급 음성 모드를 일부 챗GPT 플러스 사용자에게 31일 처음 공개했다고 밝혔다.

오픈AI는 5월에 GPT-4o의 음성을 처음 공개했을 때, 그 음성이 실제 사람의 목소리와 흡사하다는 점에서 큰 충격을 줬다.

챗GPT의 새로운 음성 모드는 사전 설정된 네 가지 음성만을 사용할 수 있으며, 사람들의 목소리를 흉내 내는 것은 차단된다고 오픈AI 대변인 린지 맥컬럼(Lindsay McCallum)이 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

스칼렛 요한슨 음성 논란 후 안전 조치 강화
음성 모드에 감정 인식 능력 포함
새로운 음성 필터 도입으로 법적 문제 예방
미라 무라티 오픈AI 최고기술책임자(CTO·왼쪽) 등이 새로 개발한 GPT-4o를 시연하고 있다.
오픈AI는 챗GPT의 고급 음성 모드를 일부 챗GPT 플러스 사용자에게 31일 처음 공개했다고 밝혔다. 이번 알파 버전은 오늘부터 소규모 사용자 그룹에 제공되며, 2024년 가을까지 모든 플러스 사용자에게 점진적으로 배포될 예정이다.

오픈AI는 5월에 GPT-4o의 음성을 처음 공개했을 때, 그 음성이 실제 사람의 목소리와 흡사하다는 점에서 큰 충격을 줬다. 이 목소리는 영화 ‘Her’에서 인공지능 비서를 연기한 배우 스칼렛 요한슨과 비슷했다. 이후 요한슨은 데모를 본 후 자신의 목소리를 보호하기 위해 법적 조치를 취했다. 오픈AI는 요한슨의 목소리를 사용하지 않았다고 부인했으나, 이후 데모에서 해당 음성을 제거했다.

이번에 공개된 고급 음성 모드는 GPT-4o가 다양한 작업을 보조 모델 없이 처리할 수 있어 응답 지연이 크게 줄어든 것이 특징이다. 오픈AI는 또한 GPT-4o가 사용자의 목소리에서 감정적 억양을 감지할 수 있다고 밝혔다.

챗GPT의 새로운 음성 모드는 사전 설정된 네 가지 음성만을 사용할 수 있으며, 사람들의 목소리를 흉내 내는 것은 차단된다고 오픈AI 대변인 린지 맥컬럼(Lindsay McCallum)이 말했다. 이는 딥페이크 논란을 피하기 위한 조치이다.

오픈AI는 저작권 문제를 피하기 위해 음악이나 다른 저작권 있는 오디오를 생성하는 요청을 차단하는 새로운 필터도 도입했다. 최근 AI 회사들이 저작권 침해로 법적 문제에 직면하면서 이러한 조치는 매우 중요하게 여겨지고 있다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?