오픈AI, '보고 듣고 말하는' 새 AI 모델 GPT-4o 출시

김태종 2024. 5. 14. 03:54
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT 개발사 오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했다.

오픈AI의 미라 무라티 최고기술책임자(CTO)는 이날 라이브 행사를 통해 'GPT-4o'(GPT-포오)라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

미라 무라티 CTO가 GPT-4o를 설명하는 모습 [오픈AI 라이브 스트림 캡처]

(샌프란시스코=연합뉴스) 김태종 특파원 = 챗GPT 개발사 오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했다.

오픈AI의 미라 무라티 최고기술책임자(CTO)는 이날 라이브 행사를 통해 'GPT-4o'(GPT-포오)라는 이름의 이 새 AI 모델을 공개하고, 시연을 선보였다.

'GPT-4o'는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델이다.

텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 업그레이드 된 음성 어시스턴트다.

이날 시연에서 휴대전화로 '내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까'라고 묻자, '숨을 깊이 들이마시라'는 음성 답이 돌아왔다.

'잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라'고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬다.

다른 시연에서는 종이에 적힌 수학 문제를 보여주고 풀어달라고 하자, 시각 기능을 이용해 이른 단계별로 풀어나갔다.

오픈AI는 'GPT-4o' 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했다. GPT-4 터보는 지난해 11월 선보인 최신 버전이다.

또 새 모델로 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였다.

무라티 CTO는 "이번 업데이트 버전은 무료 사용자를 포함한 모든 이들에게 무료로 제공된다"며 "사용 편의성에 관해 우리가 정말로 큰 진전을 이뤘다고 생각하는 것은 이번이 처음"이라고 말했다.

taejong75@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?