오픈AI, '보고 듣고 말하는' 새 AI 모델 GPT-4o 출시

박영진 2024. 5. 15. 05:46
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

챗GPT 개발사 오픈AI가 현지 시간 13일 '보고 듣고 말하는' 새로운 AI 모델을 공개했습니다.

오픈AI의 미라 무라티 최고기술책임자(CTO)는 라이브 행사를 통해 'GPT-4o(GPT-포오)'라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였습니다.

'GPT-4o'는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델입니다.

텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 업그레이드 된 음성 어시스턴트입니다.

시연에서 휴대전화로 "내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까"라고 묻자, "숨을 깊이 들이마시라"는 음성 답이 돌아왔습니다.

"잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라"고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬습니다.

다른 시연에서는 종이에 적힌 수학 문제를 보여주고 풀어달라고 하자, 시각 기능을 이용해 이른 단계별로 풀어나갔습니다.

오픈AI는 'GPT-4o' 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했습니다.

GPT-4 터보는 지난해 11월 선보인 최신 버전입니다.

또 새 모델로 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였습니다.

무라티 CTO는 "이번 업데이트 버전은 무료 사용자를 포함한 모든 이들에게 무료로 제공된다"며 "사용 편의성에 관해 우리가 정말로 큰 진전을 이뤘다고 생각하는 것은 이번이 처음"이라고 말했습니다.

YTN 박영진 (yjpark@ytn.co.kr)

※ '당신의 제보가 뉴스가 됩니다'

[카카오톡] YTN 검색해 채널 추가

[전화] 02-398-8585

[메일] social@ytn.co.kr

[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]

Copyright © YTN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?