‘화려한 데뷔’ 꿈 꾼 메타···‘아숙업’ 만든 그 기업이 막아섰다[AI토피아]
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
상업용으로도 사용할 수 있는 메타의 차세대 오픈소스 거대언어모델(LLM) '라마2(Llama2)'가 기대감 속에 화려하게 데뷔했지만 언어모델들의 성능을 평가하는 허깅페이스의 성능 평가 순위에서 1위를 차지 하는 데는 실패했다.
━ 파라미터 절반 못미치는데 라마2 넘은 비결은? 파라미터(매개변수) 개수가 300억 개로 라마2(최대 700억개)의 절반보다 적은 업스테이지 모델이 메타의 최신 모델을 꺾은 것에 국내 업계는 고무적인 반응을 보이고 있다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
파라미터 적은 업스테이지 모델이 차지
2배 이상 가볍지만 데이터 품질로 승부
가볍고 보안 우려 적은 sLLM, 확산될까
비용 부담된다···라마2 업고 sLLM 기대↑
상업용으로도 사용할 수 있는 메타의 차세대 오픈소스 거대언어모델(LLM) ‘라마2(Llama2)’가 기대감 속에 화려하게 데뷔했지만 언어모델들의 성능을 평가하는 허깅페이스의 성능 평가 순위에서 1위를 차지 하는 데는 실패했다. 출시 직후 순위 최상단을 차지했지만 머지않아 2위 모델에 자리를 내줘야 했기 때문이다. 메타의 완벽한 데뷔를 막아선 것은 국내 인공지능(AI) 스타트업 업스테이지의 자체 모델이다.
메타의 그림을 망친 주인공은 업스테이지가 ‘라마1’을 기반으로 자체 개발한 모델이다. 라마1은 이름에서 보듯 라마2의 직전 버전 모델이다. 업스테이지 모델은 종합 점수 67점으로 66.8점을 기록한 라마2를 꺾고 22일 기준 최고 성능을 기록한 모델로 등재돼 있다.
파라미터(매개변수) 개수가 300억 개로 라마2(최대 700억개)의 절반보다 적은 업스테이지 모델이 메타의 최신 모델을 꺾은 것에 국내 업계는 고무적인 반응을 보이고 있다. 파라미터란 인간 뇌로 치면 시냅스에 해당하는 개념으로 통상 파라미터 수는 모델 성능에 비례한다. 오픈AI의 모델 중 파라미터 수가 공개된 모델로는 최신인 GPT-3.5는 파라미터가 1750억 개에 달하며 GPT-4의 경우 조 단위에 이를 것이라는 추측도 나온다.
절반보다 적은 파라미터로도 높은 성능을 구현한 비결의 핵심은 학습 데이터 품질로 거론된다. 업스테이지 모델은 라마1을 파인튜닝(미세조정)해 만들어졌는데 이 과정에서 사용된 학습 데이터 품질을 정교화한 것이 노하우로 꼽힌다.
모델의 성능에는 파라미터 수뿐만 아니라, 학습 데이터의 개수, 품질 등이 종합적으로 영향을 미친다. 업스테이지는 특히 데이터 품질을 통해 적은 파라미터 수로도 높은 품질을 구현한 사례다. 이 회사는 올해 세계적 권위의 AI 학회 ‘ICML 2023’ 중 데이터 중심의 기계학습(머신러닝) 연구에 관한 워크샵인 DMLR(Data-centric Machine Learning Research)에서 7편의 논문을 발표했다. AI 학습 데이터를 효과적으로 구축하는 방법론에 연구 역량을 집중하고 있다.
이렇듯 기존 빅테크들의 대형 모델과 대비돼 모델 크기를 크게 줄인 것들을 작은(small) LLM이라는 뜻으로 통산 ‘sLLM’으로 통칭한다. sLLM은 크기가 작으면서 똑똑한 모델이라는 의미 외에도, 보안과 비용을 고민하는 기업에게 사업적으로도 중요한 시사점을 준다. 수천억 개 파라미터의 모델을 사용하려면 엄청난 컴퓨팅 비용이 들지만 sLLM은 줄어든 파라미터 수 만큼 비용을 줄이면서도 일정 성능을 보장한다. 보안에도 유리하다. 크기가 작아진 만큼 기업들은 자체 서버에 직접 모델을 설치해 사용할 수 있는 선택지가 생기기 때문이다.
향후 sLLM 시장은 더욱 확대될 것으로 전망된다. 업역을 불문하고 기업들이 LLM을 통합해 자사 서비스 고도화에 나서기 때문이다. 이러한 높은 수요에 어울리지 않는 비싼 비용이 계속 요구된다면, 작고 똑똑한 sLLM에 대한 시장의 니즈는 더욱 높아질 가능성이 높다. 연구계에서도 대형 파운데이션 모델의 컴퓨팅를 대체할 수 있는 작은 모델에 대한 고민이 계속될 것이며, sLLM을 보고 시장에 뛰어드는 기업들도 더 많아질 것으로 전망된다. 게다가 이제 막 상업적으로도 활용 가능한 라마2까지 나오면서 이 모델을 활용한 파생 모델들도 조만간 모습을 드러내게 된다면 sLLM의 파급력이 한층 강해질 것으로 업계는 전망하고 있다.
허진 기자 hjin@sedaily.comCopyright © 서울경제. 무단전재 및 재배포 금지.
- [단독] 신림역 인근서 칼부림…피해자 4명 병원으로
- 에코프로 상승률 넘보는 '이 종목'…AI 열풍에 '최대 수혜'
- '302g 초미숙아 생명' 살린 기적의 손…'인큐베이터 혁신 도왔죠'
- 3년새 영업익 2배 '쑥'…'바퀴달린 모든 것' 빌려주는 이 회사 [biz-focus]
- 담임 폭행 양천구 초등생 부모 '선생님에 용서 빌고 싶다'…논란 확산에 언론사에 전해와
- 소방서 앞 불법주차된 고급승용차…'소방관이 신고 막고 짐 실어줘' 차주 누구이기에?
- 이준석, '서초구 초등교사 사망'사건 두고 '추태 부리지 말자'…정쟁화 경고
- '담배 피웠냐?'…10대 딸 폭행하고 폭언한 아빠, 석방됐다
- '상추 리필 요청' 사장님은 눈물…손님은 '눈치'…삼겹살집 무슨 일?
- '시체냄새 난다' 신고에 가보니…20대 여성 살던 집 '쓰레기 소굴'