"오픈소스가 AI의 길" 메타, 최고 수준 AI모델 '라마3.1' 공개

백종민 2024. 7. 24. 09:50
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

최신 생성형 인공지능(AI) 챗GPT-4.0 수준의 AI를 무료로 사용할 수 있는 길이 열렸다.

페이스북의 모기업 메타가 최신 대규모 언어모델(LLM) 라마 3.1을 누구나 사용할 수 있는 오픈소스로 공개하면서다.

메타는 라마3.1이 오픈AI의 최신 모델인 GPT-4o(포오) 및 앤스로픽의 클로드 3.5 소네트를 능가했다고 강조했다.

메타는 라마3.1 학습에 엔비디아의 최신 GPU 'H100' 1만6000개를 사용했다고 설명했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

메타, 엔비디아 칩 대량 구매해 최신 '라마3.1' AI 모델 공개
오픈AI·구글·엔스로픽과 같은 수준 강조

최신 생성형 인공지능(AI) 챗GPT-4.0 수준의 AI를 무료로 사용할 수 있는 길이 열렸다. 페이스북의 모기업 메타가 최신 대규모 언어모델(LLM) 라마 3.1을 누구나 사용할 수 있는 오픈소스로 공개하면서다. 마크 저커버그 메타 최고경영자(CEO)가 AI 학습용 GPU 시장을 장악한 엔비디아의 젠스 황 CEO와 밀접한 관계를 과시하면서 기존 AI 경쟁의 판을 흔들고 있다는 분석까지 나오고 있다.

마크 저커버그 메타 CEO와 젠슨 황 엔비디아 CEO가 서로의 상의를 바꿔 입고 기념촬영을 하고 있다. 사진=마크저커버그 인스타그램

메타는 23일(현지시간) '라마(Llama)3.1'을 출시한다고 발표했다. 메타는 지난 4월 '라마 3'을 선보인 이후 3개월여만에 LLM성능을 대폭 강화하는 괴력을 선보였다.

라마 3.1의 가장 큰 버전은 라마 3.1 405B이다. 405B는 매개변수(파라미터)가 4050억개에 달한다. 챗GPT-4가 페러미터 개수를 공개하지 않았지만, GPT-3의 1750억개는 크게 능가하는 수준이다. 메타는 소형모델도 함께 공개했다. 매개변수가 70억개인 소형 모델 라마3.1 8B와 함께 700억개인 중형 모델 3.1 70B다. 성능도 크게 향상됐다는 게 메타의 주장이다. 메타는 라마3.1이 오픈AI의 최신 모델인 GPT-4o(포오) 및 앤스로픽의 클로드 3.5 소네트를 능가했다고 강조했다.

메타가 신속하게 라마의 성능을 끌어올리는 비결은 최신 엔비디아 칩이다. 메타는 라마3.1 학습에 엔비디아의 최신 GPU 'H100' 1만6000개를 사용했다고 설명했다. 저커버그 메타 CEO는 올해 초 연말까지 35만개의 H100을 구입하겠다는 목표를 제시한 바 있다. 저커버그는 황과 재킷을 서로 바꿔입는 사진을 공개해 화제가 되기도 했고 오는 28일에는 황과 대담하는 행사도 예정하고 있다. 저커버그는 이 자리에서 라마3.1 개발에 대한 비화를 공개할 것으로 예상된다.

라마는 오픈소스다. 다른 기업들도 라마를 활용해 AI 사업을 할 수 있다는 뜻이다. 오픈AI, 구글, 앤스로픽의 AI 모델이 비공개인 것과 대비된다.

저커버그는 "'라마 3은 가장 진보된(frontier) 모델과 경쟁할 수 있는 제품이면서도 누구나 사용할 수 있는 오픈소스"라고 강조한 후 오픈소스 유닉스 기반 컴퓨터가 대세가 된 것을 예로 들며 "AI가 앞으로 나아갈 길도 오픈소스이다"라고 예고했다. 그는 "내년부터는 라마가 업계에서 가장 진보된 모델이 될 것으로 기대한다"고 말했다.

해외 기업들의 AI 모델의 발전 속도는 빨라지고 있지만, 국내 기업의 추격은 쉽지 않다. 미국 스탠퍼드대 기초모델연구센터(CRFM)에 따르면 2021년 5월 처음 선보인 네이버 1세대 ‘하이퍼클로바’의 파라미터 수는 820억개로 나타났다. 네이버는 최신 하이퍼클로바X의 패러미터수는 공개하지 않고 있다. 김종원 GIST AI 대학원장은 "학습을 위한 대규모 엔비디아 GPU를 구입할 여력이 부족하다보니 해외 빅테크들의 발전속도를 따라가기가 어렵다"고 설명했다.

백종민 기자 cinqange@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?