AI도 가성비 시대? 대형 언어 모델(LLM)과 대비된다는 SLM의 정체는
WEEKLY BIZ 뉴스레터 구독하기 ☞ https://page.stibee.com/subscriptions/146096
월스트리트저널은 최근 “인간 두뇌와 맞먹는 능력을 갖춘 거대한 인공지능(AI)을 만들기 위해 경쟁하던 기업들이 이젠 더 싸고 빠르고 전문화된 소형 AI로 눈을 돌리고 있다”고 보도했다. 이런 소형 AI는 주제를 불문하고 임무를 수행하고 사람처럼 대화하는 챗GPT 등 ‘대형 언어 모델(LLM·large language model)’과 대비해 ‘소형 언어 모델(SLM·small language model)’이라고 부른다.
◇1. 대형과 소형은 어떻게 구분하나
상대적 개념이다. 최근엔 파라미터(parameter·아래 설명)가 100억개를 넘어가면 LLM, 그 이하면 SLM이라고 거칠게 분류한다. 하지만 AI 기술이 빠르게 발전 중이라 이 기준은 변할 가능성이 크다.
◇2. 파라미터가 무슨 뜻인가
AI의 ‘학습 단위’라고 보면 된다. 한국어로 ‘매개 변수’라고 부른다. 특정한 문제를 해결하는 데 AI가 얼마나 다양한 ‘도구’를 갖추고 있는지를 표시한다. 요리 레시피에 빗댄 설명이 비교적 이해하기 쉽다. 같은 요리를 만들더라도 조리법에 따라 재료·순서·방법이 다양하듯, AI도 특정 작업을 수행하기 위해 다양한 파라미터(재료·순서·방법)를 쓸 수 있다. 레시피가 정교할수록 고난도 요리를 더 정확히 만들 수 있는 것처럼, AI 또한 파라미터 수가 많아지면 더 복잡한 문제를 해결할 능력이 커진다.
◇3. 파라미터가 늘어나면 성능은 무조건 좋아지나
더 다양하고 복잡한 정보를 효율적으로 처리할 수 있게 되는 것은 맞다. 다만 정교한 레시피가 있어도 실제 ‘그 요리’를 완성하는 건 또 다른 문제인 것처럼, AI도 적절한 데이터와 학습 방법 등이 뒷받침되어야 성능을 보장할 수 있다. 참고로 GPT 시리즈의 최신 모델인 GPT-4는 파라미터가 5000억개로 추정된다. 인간의 뇌에서 파라미터 역할을 하는 시냅스는 약 100조개다.
◇4. 왜 SLM이 늘고 있나
LLM의 ‘가성비’ 문제가 계속 제기되기 때문이다. 파라미터가 많아질수록 시간·돈·에너지(전기)가 더 들어간다. 2021년 발표한 어느 논문에 따르면 GPT-3를 학습시키기 위해 미국 120가구의 1년 사용분과 맞먹는 전기가 쓰였다. WSJ는 “문서 요약 같은 간단한 작업에 LLM을 쓰는 것은 식료품을 사러 탱크를 몰고 가는 격이다”라며 “회사 내부 문서, 매출 자료 등 특정 데이터를 사용해 특화된 작업만 수행하도록 하는 것이 SLM의 핵심”이라고 전했다.
◇5. SLM엔 어떤 종류가 있나
신용 평가 회사 익스피리언은 회사 내부 데이터로 학습시킨 소형 모델을 고객 상담 챗봇에 쓰고 있고, 오디토리아처럼 재무·회계에 특화된 SLM도 나왔다. 구글의 ‘젬마 7B’, 마이크로소프트의 파이(Phi)-2 및 수학 특화 AI 오르카-매스(Orca-Math), 오픈AI의 GPT-4o 미니 등은 빅테크사가 개발 중인 SLM이다. 매개 변수 수가 60억~100억개 정도인 기업용 AI 챗봇 등을 개발하는 한국 스타트업 업스테이지도 SLM에 들어간다.
WEEKLY BIZ 뉴스레터 구독하기 ☞ https://page.stibee.com/subscriptions/146096
Copyright © 조선일보. 무단전재 및 재배포 금지.
- 검찰, 경기 용인서 일가족 5명 살해한 50대 가장 구속기소
- 에어쇼 잠입...美오산공군기지 전투기 무단 촬영한 대만인들 구속
- 대법원, ‘10·26’ 김재규 내란목적 살인 재심 결정 유지
- 국회서 ‘행정수도 세종 대선 공약 반영’ 세미나 열려
- 서울 중장년은 외롭다…한 달여 만에 상담 3000건 돌파
- 장기 방치 노후 선박 증가세…해경, 오염 사고 예방 전수조사 추진
- ‘폭싹’ 관식도 걸린 ‘다발골수종’ 진단법
- ‘고발 사주’ 무죄 손준성, 탄핵 심판서 “견디기 어려운 모함”
- 한국 장편 없는 칸 영화제 개막... 심사위원 홍상수, 호텔 발코니서 포착
- 분리조치도 죽음 못 막았다…사실혼 남성의 치밀한 납치 살인극