카카오, 경량화 멀티모달 LLM '허니비' 오픈소스 공개
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
카카오브레인이 자사가 개발한 멀티모달 언어모델(MLLM) 오픈소스 '허니비(Honeybee)'를 '깃허브(Github)'에 공개했다고 19일 밝혔다.
허니비는 이미지와 텍스트 명령어(프롬프트)를 입력하면, 텍스트로 답변하는 모델로 텍스트로만 입⋅출력하는 자연어 기반 대규모언어모델(LLM)보다 확장된 모델이다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
카카오브레인이 자사가 개발한 멀티모달 언어모델(MLLM) 오픈소스 ‘허니비(Honeybee)’를 ‘깃허브(Github)’에 공개했다고 19일 밝혔다.
허니비는 이미지와 텍스트 명령어(프롬프트)를 입력하면, 텍스트로 답변하는 모델로 텍스트로만 입⋅출력하는 자연어 기반 대규모언어모델(LLM)보다 확장된 모델이다.
자연어는 물론 이미지까지 포함해 질문할 수 있어 이미지에 담긴 장면을 묘사하거나 이미지와 텍스트가 혼합된 콘텐츠에 관한 질문을 이해하고 답변할 수 있다. 예를 들어 허니비에 ‘농구 경기 중인 두 명의 선수’ 이미지와 함께 ‘왼쪽 선수는 몇 번 우승했나요?’라는 질문을 영어로 입력하면 ‘허니비’가 입력된 이미지 내용과 질문을 종합적으로 이해하고 답변을 생성해낸다.
이 모델은 ‘MME’, ‘MMBench’, ‘SEED-Bench’ 등의 성능 실험(벤치마크)에서 모델이 공개된 타사 MLLM 대비 최고 성능을 달성했다. 특히 지각 능력과 인지 능력을 평가하는 ‘MME’ 벤치마크에서는 2800점 만점 중 1977점을 받았다.
또한 관련 논문 ‘허니비: 멀티모달 LLM을 위한 로컬리티 강화 프로젝터’는 지난해 논문 공개 사이트 ‘아카이브(arXiv)’에 게재된 바 있다. 논문에는 이 기술에 대해 “이미지 데이터를 처리해 딥러닝 모델이 더 효과적으로 학습하고 이해할 수 있도록 돕는 기술”이라며 “시각 프로젝터(Visual projector)가 사전 훈련된 비전 인코더와 대규모 언어 모델(LLM)을 연결하는 데 중요한 역할을 하며, 이를 통해 시각적 이해를 깊게 하면서 LLM의 능력을 활용할 수 있다”고 설명했다. 카카오브레인은 허니비가 향후 효과적인 교육 및 학습 보조 도구로 사용될 것으로 전망하고 있다.
허진 기자 hjin@sedaily.comCopyright © 서울경제. 무단전재 및 재배포 금지.
- '영탁이 150억원 요구했다'던 막걸리 업체 대표에 징역형 '집행유예'
- 황의조, '출국금지' 조치에 …'주급 못 받아 최소 3억 금전적 손해'
- '돈 없는데 결혼 어떻게 하죠?'…이러다 결혼보다 '동거'가 대세 되겠네…
- 이소라 '이곳' 부상으로 사업 접고 방황…'노인이 다쳤다면 치명적' [셀럽의 헬스]
- 치사율 불과 1%인데…콜레라 걸려 석달새 412명 사망 무슨 일?
- 커피 프랜차이즈 '소비자 호감도' 1위는? 스타벅스 제친 '이곳'이었다
- '김하성 공갈' 임혜동, 류현진에게도 3억 원 뜯어낸 혐의…구속기로
- 8000원짜리 담배 피우실 건가요?…담뱃값 오르면 ‘금연’ 성공할 수 있다는데
- “감시 좀 해주세요”…9살 아들 공부 모습 ‘생중계’한 엄마
- 건강하게 오래 살고 싶은데 쉽지 않네…기대수명 늘어도 건강수명 줄어든 이유는 '이 것'