오픈AI, 새 AI모델 GPT-4o 개발…"처리속도 2배 고속화"

박준호 기자 2024. 5. 14. 06:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

대화형 인공지능(AI) 챗GPT를 개발한 미국 스타트업 오픈AI가 13일(현지시각) 새로운 AI모델 GPT-4o(GPT-포오)를 개발했다고 니혼게이자이신문 등 외신들이 보도했다.

이번에 새로 개발된 'GPT-4o'는 챗GPT를 움직이는 기반이 되는 기술로, 새로 변화된 기술을 선보인 건 2023년 11월 발표한 현행 'GPT-4 터보' 이후 처음이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[뉴욕=AP/뉴시스]대화형 인공지능(AI) 챗GPT를 개발한 미국 스타트업 오픈AI가 13일(현지시각) 새로운 AI모델 GPT-4o(GPT-포오)를 개발했다. 사진은 오픈AI의 챗GPT 앱이 아이폰에 표시된 모습. 2024.05.14.

[서울=뉴시스] 박준호 기자 = 대화형 인공지능(AI) 챗GPT를 개발한 미국 스타트업 오픈AI가 13일(현지시각) 새로운 AI모델 GPT-4o(GPT-포오)를 개발했다고 니혼게이자이신문 등 외신들이 보도했다.

이번에 새로 개발된 'GPT-4o'는 챗GPT를 움직이는 기반이 되는 기술로, 새로 변화된 기술을 선보인 건 2023년 11월 발표한 현행 'GPT-4 터보' 이후 처음이다. o는 '모든'을 뜻하는 '옴니'의 앞글자에서 따왔다.

종전에 비해 처리 속도를 2배로 고속화한 한편, 운용 비용은 절반으로 줄었다. 목소리로 말을 걸면 사람과 같은 반응 속도로 대화를 나눌 수 있다. 약점이었던 반응 지연을 극복하고 AI 활용이 더욱 확산될 것으로 보인다고 니혼게이자이가 전했다.

새로운 AI는 총 50개국 언어를 지원하며 문자, 이미지, 음성을 모두 인식한다. 실시간 번역 외에 스마트폰 카메라를 이용해 사람의 얼굴 표정을 읽거나 그래프를 읽을 수도 있다.

AI의 음성 반응 속도는 빠른 경우 232㎳(밀리초·1000분의 1초), 평균 320㎳로 사람이 실제로 대화할 때와 같은 수준을 구현했다. 인간의 감정을 읽고 농담도 통한다. 보다 자연스러운 대화가 가능해졌다고 한다.

이날 열린 웹 발표회 시연에서는 개발자가 음성으로 챗GPT에 취침 전 몸을 돌리는 모습으로 이야기를 읽어달라고 의뢰했다. 목소리의 톤을 극화조로, 노래하면서 읽게 하는 등의 조작을 선보였다.

미라 무라티 오픈AI 최고기술책임자(CTO)는 이날 발표회에서 "지금까지 (AI)모델의 지능을 높이는 데 주력해 왔지만, 사용 편의성에서 큰 전진을 이뤘다"고 자평했다.

신기술 탑재 후에도 챗GPT의 기본요금은 변하지 않는다. 텍스트나 화상용의 일부 기능만 무료로 사용할 수 있다. 음성을 사용한 기능은 월 20달러의 유료 과금 이용자나 법인용으로만 몇 주 이내에 먼저 사용할 수 있도록 한다. 데이터 운용의 부하를 피하기 위해 이용 횟수에는 플랜에 따라 제한이 있다.

☞공감언론 뉴시스 pjh@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?