[르포] 아마존, 거대 AI 경쟁에 본격 참전...자체 모델 ‘노바’ 공개

라스베이거스/오로라 특파원 2024. 12. 4. 06:39
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

리인벤트 2024에서 노바 시리즈 줄공개
이미지·영상·음성 AI모델 전부 갖췄다
자체 AI 반도체 시장도 빠르게 확장
3일 미국 라스베이거스에서 열린 '리인벤트 2024'에서 맷 가먼 AWS 최고경영자(CEO)가 기조연설을 하고 있다./AWS

아마존이 새로운 대형 언어 모델(LLM) ‘노바(Nova)’ 시리즈를 공개하며 생성형 AI경쟁에 본격 뛰어들었다. 아마존은 지금까지 오픈AI의 GPT나 구글의 제미나이 등 업계 최고 수준 LLM들과 견줄만한 자체 AI모델을 갖고 있지 못했고, 투자사인 생성형 AI스타트업 앤스로픽의 모델 ‘클로드’에 크게 의존해왔었다. 테크 업계에선 “아마존이 자체 AI모델의 빈자리를 매꾸며 공격적인 AI서비스 출시 및 고객확보에 나설 것”이라는 말이 나온다.

3일 미국 라스베이거스에서 열린 세계 1위 클라우드 기업 아마존웹서비스(AWS)의 연례 행사 ‘리인벤트 2024′에 기조연설자로 등장한 앤디 재시 아마존 최고경영자(CEO)는 노바를 공개하며 “단 하나의 모델이 세상을 지배하는 일은 결단코 없을 것”이라고 했다. 그러면서 “아마존은 각 고객의 상황에 가장 알맞은 모델을 제공할 것”이라며 거대 스크린 위로 ‘선택(Choice)’라는 단어를 크게 띄웠다. 경쟁사 대비 자체 AI모델 출시가 최대 2년 늦어진 상황에서, 이미 시장을 선도하고 있는 AI모델 외에도 신생 모델이 파고들어갈 틈이 있음을 강조한 것으로 풀이된다.

◇자체 AI로 무장한 아마존

3일 미국 라스베이거스에서 열린 '리인벤트 2024'에서 앤디 재시 아마존 최고경영자(CEO)가 아마존의 새로운 거대 AI모델 '노바'를 공개하고 있다./오로라 특파원

아마존 노바는 가장 가볍고 빠른 ‘마이크로’ 모델부터 가장 무겁고 성능이 좋은 ‘프리미어’까지 총 4가지 모델로 구성됐다. 텍스트만 처리하는 마이크로 모델을 제외한 라이트·프로·프리미어 모델은 모두 텍스트·이미지를 동시에 처리하는 멀티 모달 모델이다. 재시 CEO는 AI모델 간 성능을 비교한 벤치마크 표를 띄우며 “노바 프로의 경우 오픈AI의 GPT-4o와 맞먹으며, 언어 이해·추론 능력 등에서 비슷한 성능을 보였다”고 했다. 이날 아마존은 각 모델의 구체적인 매개변수 규모를 공개하지 않았지만, 경쟁 모델을 고려했을 때 적게는 수천억에서 조단위가 될 것으로 보인다.

재시 CEO는 이어 이미지 생성 모델인 ‘노바 캔버스’와 동영상 생성 AI ‘노바 릴’도 선보였다. 그는 “노바 캔버스는 오픈AI의 달리3이나 스테이블 디퓨전의 3.5 라지 모델에 비해 이미지 퀄리티가 높게 나온다”며 “릴은 현재 6초 길이의 동영상을 만들 수 있고, 수개월 안에 최장 2분 단위의 영상을 만들 수 있을 것”이라 밝혔다.

아마존은 오픈AI와 구글 등이 경쟁하고 있는 ‘대화형 AI비서’ 분야로도 지출했다. 재시 CEO는 “내년 1분기에 대화형 AI인 ‘노바 스피치 투 스피치’를 공개하고, 내년 중반엔 텍스트·이미지·영상·음성을 질문와 응답으로 모두 받을 수 있는 ‘애니 투 애니’ 모델을 선보일 것”이라고 했다. 업계에선 이 같은 성능이 차후 아마존 앱에 탑재돼 있는 챗봇 ‘루퍼스’ 등에 통합되고, 음성이나 영상을 통해 쇼핑 검색이나 주문을 할 수 있게 할 것이라는 예상이 나오고 있다.

이날 공개된 노바 시리즈는 전부 AWS에서 독점적으로 제공된다. 기존에 제공되던 앤스로픽의 클로드와 스테이블 디퓨전의 이미지 생성 AI 등과 함께 아마존 클라우드 이용자의 선택지에 놓이게 되는 것이다. 김기환 AWS코리아 솔루션즈 아키텍트 총괄은 “아마존이 지난해 발표했던 LLM ‘타이탄’도 지속적으로 제공될 것”이라며 “사용자가 테스트를 돌려봤을 때 가장 정보처리 효율이 좋고, 비용이 낮은 모델을 선택해서 이용하도록 할 것”이라고 했다.

◇자체 AI칩 사용도 늘린다

3일 미국 라스베이거스에서 열린 '리인벤트 2024' 기조연설 현장의 청중들./AWS

올해 리인벤트에서 아마존은 앤스로픽에 대한 AI모델 의존도를 낮추는 것과 동시에, 엔비디아의 AI가속기에 대한 의존에서 탈피하려는 모습도 포착할 수 있었다. 기조연설에 나선 맷 가먼 AWS CEO는 “내년 말 중 새로운 AI반도체 트라이니엄3를 출시할 것”이라고 밝혔다. 3나노 공정으로 제조되는 트라이니엄3는 연산 성능이 전작인 트라이니엄2에 비해 40% 개선될 것”이라 밝혔다. AWS는 지난해 리인벤트 행사때 트라이니엄2를 첫 공개했었다. 현장의 참석자는 “앞으로 매해 리인벤트때 새로운 AI칩을 공개하는게 중요한 전통이 될 수 있다”고 했다.

전작인 트라이니엄2는 1년 간의 테스트를 통해 올해 말부터 AWS 데이터센터에 본격 탑재되기 시작한다. AWS는 전날 앤스로픽과 트라이니엄2 수십만장을 탑재한 초대형 클라우드 클러스터를 구축하는 ‘프로젝트 레이니어’를 공개하고, 이 위에서 앤스로픽의 최신 AI모델을 훈련시킨다고 밝혔다. 이날 기조연설에는 브누아 뒤팽 애플 머신러닝 및 AI 수석 디렉터나 등장해 애플의 AI인 애플 인텔리전스를 트라이니엄2를 사용해 훈련·운영하고 있다고도 밝혔다. 애플이 트라이니엄2를 사용하고 있다고 밝힌 것은 이번이 처음으로, 아마존이 자사 AI반도체를 사용할 대형 고객사 다수를 유치한 것으로 풀이된다.

이날 AWS는 64개의 트라이니엄2 칩을 연결한 울트라서버도 공개했다. 거대 AI모델을 여러 서버에 나눠서 운영하기 보단 하나의 서버를 사용하는게 품질이나 비용 등 모든 측면에서 낫다는게 AWS의 설명이다. 테크 업계 관계자는 “대부분 선두 AI업체들이 자체 AI칩 개발을 추진하는 가운데, 아마존은 세계 최대 클라우드사라는 강점을 사용해 자체칩의 활용 사례를 빠르게 늘려가고 있다”며 “타사에 비해 AI가 뒤떨어진다는 평을 받았던 아마존이 올해를 기점으로 비슷한 시작점에 서게됐다”고 했다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?