네이버 1세대 초거대 AI ‘하이퍼클로바’, 파라미터 수는 820억개

이상덕 기자(asiris27@mk.co.kr), 정호준 기자(jeong.hojun@mk.co.kr) 2024. 7. 22. 11:42
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

네이버의 1세대 거대언어모델(LLM)인 '하이퍼클로바'의 파라미터(매개변수)가 처음으로 공개됐다.

22일 미국 스탠퍼드대 기초모델연구센터(CRFM)의 '에코시스탬 그래프'에 따르면, 지난 2021년 5월 처음 선보인 네이버 '하이퍼클로바'의 파라미터 수는 820억개로 나타났다.

하이퍼클로바의 파라미터 수는 이번에 처음 공개됐지만, 하이퍼클로바X에 대한 정보는 아직 비공개다.

앤스로픽의 주요 모델의 파라미터 수도 공개되지 않았다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

美 스탠포드대 ‘에코시스템 그래프’ 발표
후속 모델인 ‘하이퍼클로바X’는 비공개
네이버의 초거대 AI 모델 ‘하이퍼클로바 X’ 소개 이미지 [출처 = 네이버클라우드 웹사이트]
네이버의 1세대 거대언어모델(LLM)인 ‘하이퍼클로바’의 파라미터(매개변수)가 처음으로 공개됐다. 파라미터 수는 인간 두뇌의 시냅스에 해당하는 AI 모델의 논리 단위로, 파라미터 수가 클수록 AI 모델의 연산 능력이 강하다.

22일 미국 스탠퍼드대 기초모델연구센터(CRFM)의 ‘에코시스탬 그래프’에 따르면, 지난 2021년 5월 처음 선보인 네이버 ‘하이퍼클로바’의 파라미터 수는 820억개로 나타났다. 지난 2020년 6월에 나온 오픈AI의 ‘GPT-3’의 파라미터 수는 1750억개였다.

또한 등록된 정보에 따르면 하이퍼클로바 모델 훈련에 소요된 기간은 130.4일로 나타났다.

네이버는 2021년 처음 하이퍼클로바를 선보인 후 지난해 8월에 이를 고도화한 ‘하이퍼클로바 X’를 공개한 바 있다. 하이퍼클로바의 파라미터 수는 이번에 처음 공개됐지만, 하이퍼클로바X에 대한 정보는 아직 비공개다.

네이버 AI 모델 ‘하이퍼클로바’ 설명 [출처 = 에코시스템 그래프]
이번에 발표된 에코시스템 그래프는 스탠퍼드대 기초모델연구센터가 AI 기초 모델의 사회적 영향을 명확히 하고 투명성을 개선하며 기초 모델 생태계를 문서화하기 위해 발표하는 내용이다. 이번에 공개된 전체 모델 수는 359개, 기업 수는 63곳에 달한다.

다만 모든 AI 기초 모델에 대한 정보가 공개된 것은 아니다. 오픈AI의 GPT-3.5 터보, GPT-4, GPT-4o, 구글의 제미나이, 제미나이 1.5 플래시 등 주요 모델은 오픈AI와 구글이 모델 연산 공개를 거부하면서 정보가 등록되지 않은 것으로 파악된다. 앤스로픽의 주요 모델의 파라미터 수도 공개되지 않았다.

국내 기업의 경우 LG AI연구원이 지난해 7월 발표한 ‘엑사원 2.0’, SK텔레콤의 390억 파라미터 크기의 자체 언어모델 ‘에이닷엑스(A.X)’, KT가 지난해 1월 선보인 ‘믿음’의 70억개 파라미터 경량화 모델 등의 정보가 에코시스템 그래프에 등록됐다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?