메타, 역발상으로 챗GPT 맹추격…생성AI 다크호스 부상

최진석 2023. 6. 28. 17:53
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

메타의 대규모 언어모델(LLM) 라마는 생성형 AI 시장에서 자신만의 입지를 구축하고 있다.

27일(현지시간) 관련 업계에 따르면 지난 2월 메타가 오픈소스 형태로 공개한 라마를 활용해 자체 생성형 AI 플랫폼을 개발하는 사례가 부쩍 늘었다.

메타의 오픈소스 전략은 오픈AI, 구글과 대비된다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI·구글은 초거대화 경쟁
메타는 가벼운 '라마' 앞세워
오픈소스로 학계·시민단체 공략

메타의 대규모 언어모델(LLM) 라마는 생성형 AI 시장에서 자신만의 입지를 구축하고 있다. 오픈AI와 손잡은 마이크로소프트(MS)와 구글의 경쟁 구도 속에서 ‘오픈소스’ 전략으로 꾸준히 영향력을 넓히는 모양새다.

27일(현지시간) 관련 업계에 따르면 지난 2월 메타가 오픈소스 형태로 공개한 라마를 활용해 자체 생성형 AI 플랫폼을 개발하는 사례가 부쩍 늘었다. 이미지 생성형 AI로 유명한 회사인 스테빌리티AI가 지난 4월 선보인 스테이블LM, 독일 비영리단체인 오픈어시스턴스가 밀고 있는 허깅챗, 스탠퍼드대 연구진이 개발한 알파카 등이 대표적인 사례로 꼽힌다.

라마의 특징은 ‘가벼운 몸집’이다. 생성형 AI의 성능을 결정하는 파라미터(매개변수)가 70억 개에 불과하다. 구글이 공개한 LLM 팜2가 5400억 개, 오픈AI의 GPT-3.5가 1750억 개의 파라미터를 활용하는 것과 대조적이다. 파라미터가 줄면 LLM의 성능이 떨어질 수 있다. 대신 슈퍼컴퓨터의 도움 없이 단시간 내에 AI 모델을 구현할 수 있다. 특색있는 소규모 생성형 AI를 직접 구축하려는 연구소와 대학들이 라마를 적극 채용하는 배경이다. 업계에서는 메타는 올해 안에 라마의 상업적 이용을 허용할 것으로 보고 있다.

메타의 오픈소스 전략은 오픈AI, 구글과 대비된다. 챗GPT 열풍을 일으킨 오픈AI는 지난 3월 LLM GPT-4를 내놓으면서 유료화에 나섰다. 더 나은 서비스를 원하면 대가를 치러야 한다는 게 오픈AI의 설명이다. 지난달 새로운 LLM 팜2를 내놓은 구글도 비슷한 입장이다. 무료로 서비스를 이용해 볼 수 있지만, 구글 플랫폼을 통해야 한다. 구체적인 기술도 공개하지 않고 있다.

메타의 오픈소스 전략에 대해 회의적인 시각도 있다. 메타가 라마 유지에 투입되는 막대한 비용을 언제까지 부담할지 알 수 없다는 지적이다. 인력, 비용 등의 이유로 오픈소스의 품질 경쟁력이 떨어질 수 있다는 우려도 메타가 극복해야 할 과제로 꼽힌다.

실리콘밸리=최진석 특파원 iskra@hankyung.com

클래식과 미술의 모든 것 '아르떼'에서 확인하세요
한국경제신문과 WSJ, 모바일한경으로 보세요

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?