카카오브레인, 멀티모달 언어모델 오픈소스 '허니비' 공개
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
카카오브레인이 자체 개발한 멀티모달 언어모델 오픈소스 '허니비(Honeybee)'를 깃허브(Github)에 공개했다.
멀티모달 언어모델(MLLM)은 이미지와 명령어(프롬프트)를 입력하면 텍스트로 답변하는 것이다.
카카오브레인은 허니비의 MLLM 특성에 따라 이미지를 입력하고 텍스트로 질문하면 답변 생성, 사용자와 상호작용이 가능하다고 보고 있다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
카카오브레인이 자체 개발한 멀티모달 언어모델 오픈소스 '허니비(Honeybee)'를 깃허브(Github)에 공개했다.
멀티모달 언어모델(MLLM)은 이미지와 명령어(프롬프트)를 입력하면 텍스트로 답변하는 것이다. 텍스트로만 입·출력하는 대규모 언어모델(LLM)에서 확장된 형태다. 이미지에 담긴 장면을 묘사하거나 이미지와 텍스트가 혼합된 콘텐츠에 관한 질문을 이해하고 답변할 수 있는 점이 특징이다.
예를 들어 허니비에 '농구 경기 중인 두 명의 선수' 이미지와 함께 '왼쪽 선수는 몇 번 우승했나요?'라는 질문을 영어로 입력하면, 이미지 내용과 질문을 종합적으로 이해하고 답변을 생성한다.
카카오브레인에 따르면 허니비는 'MME' 'MMBench' 'SEED-Bench' 등 벤치마크(성능 실험)에서 모델이 공개된 타사 MLLM 대비 최고 성능을 달성했다. 특히 지각 능력과 인지 능력을 평가하는 MME 벤치마크에서는 2800점 만점 중 1977점을 받았다.
관련 논문 'Honeybee:Locality-enhanced Projector for Multimodal LLM(허니비:멀티모달 LLM을 위한 로컬리티 강화 프로젝터)'은 지난해 논문 공개 사이트 '아카이브(arXiv)'에 게재됐다. 논문에는 “이미지 데이터를 처리해 딥러닝 모델이 더 효과적으로 학습하고 이해할 수 있도록 돕는 기술”이라며 “시각 프로젝터가 사전 훈련된 비전 인코더와 LLM을 연결하는 데 중요한 역할을 하며 이를 통해 시각적 이해를 깊게 하면서 LLM 능력을 활용할 수 있다”고 설명했다.
카카오브레인은 허니비의 MLLM 특성에 따라 이미지를 입력하고 텍스트로 질문하면 답변 생성, 사용자와 상호작용이 가능하다고 보고 있다. 향후 효과적인 교육·학습 보조 도구로 사용할 것으로 전망했다.
김일두 카카오브레인 각자 대표는 “허니비 모델 추론을 가능하게 하는 코드도 깃허브에 공개했다”면서 “더욱 발전된 AI 모델을 확보하기 위해 끊임없이 연구하고 개발하겠다”고 말했다.
변상근 기자 sgbyun@etnews.com
Copyright © 전자신문. 무단전재 및 재배포 금지.
- 삼성, LG OLED 500만대 구매 추진
- 서울시, 새벽 근로자 위한 '자율주행 새벽동행버스' 연말 운영
- 28㎓ 신규사업자 주파수경매 D-3... 도전 3사 '자신감'
- 北 해킹조직, 올해 금융보안 SW 추가 악용 전망…공급망 공격 가능성도 제기
- 한국문화정보원, 컨설팅으로 직무역량 도출·맞춤형 교육…“직원 역량강화 지원”
- EU, 그린워싱·강제노동 제품 수입 금지...“韓 ESG 경쟁력 강화해야”
- 로봇개가 지키는 美 삼성리서치…실리콘밸리 최전선서 혁신 이끈다
- [뉴스해설] OLED TV 공동 확대…'中 격차 벌린다'
- 현대모비스, 사상 첫 매출 60조원 시대 열어
- 수천억 규모 공공 클라우드 네이티브 사업, 보안은 뒷전