오픈AI, '보고 듣고 말하는' 새 AI 모델 GPT-4o 출시

박영진 2024. 5. 14. 07:09
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT 개발사 오픈AI가 현지 시간 13일 '보고 듣고 말하는' 새로운 AI 모델을 공개했습니다.

오픈AI의 미라 무라티 최고기술책임자(CTO)는 라이브 행사를 통해 'GPT-4o(GPT-포오)'라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였습니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

챗GPT 개발사 오픈AI가 현지 시간 13일 '보고 듣고 말하는' 새로운 AI 모델을 공개했습니다.

오픈AI의 미라 무라티 최고기술책임자(CTO)는 라이브 행사를 통해 'GPT-4o(GPT-포오)'라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였습니다.

'GPT-4o'는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델입니다.

텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 업그레이드 된 음성 어시스턴트입니다.

시연에서 휴대전화로 "내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까"라고 묻자, "숨을 깊이 들이마시라"는 음성 답이 돌아왔습니다.

"잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라"고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬습니다.

다른 시연에서는 종이에 적힌 수학 문제를 보여주고 풀어달라고 하자, 시각 기능을 이용해 이른 단계별로 풀어나갔습니다.

오픈AI는 'GPT-4o' 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했습니다.

GPT-4 터보는 지난해 11월 선보인 최신 버전입니다.

또 새 모델로 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였습니다.

무라티 CTO는 "이번 업데이트 버전은 무료 사용자를 포함한 모든 이들에게 무료로 제공된다"며 "사용 편의성에 관해 우리가 정말로 큰 진전을 이뤘다고 생각하는 것은 이번이 처음"이라고 말했습니다.

YTN 박영진 (yjpark@ytn.co.kr)

※ '당신의 제보가 뉴스가 됩니다'

[카카오톡] YTN 검색해 채널 추가

[전화] 02-398-8585

[메일] social@ytn.co.kr

[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]

Copyright © YTN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?