LG ‘엑사원 4.5’ 공개…문서·이미지 함께 읽는 AI

박영우 2026. 4. 9. 17:12
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

LG AI연구원이 9일 텍스트와 이미지를 동시에 이해하고 추론하는 인공지능(AI) 모델 ‘엑사원(EXAONE) 4.5’를 발표했다.

엑사원 4.5는 글과 그림을 함께 읽고 의미를 파악할 수 있는 AI다. 2021년 선보인 ‘엑사원 1.0’ 이후 축적한 기술을 바탕으로 개발됐다.

특징은 실제 산업 현장에서 쓰이는 문서를 이해하는 능력이다. 설계도면이나 재무제표, 계약서처럼 글과 그림이 섞인 자료를 분석해 전체 맥락을 파악할 수 있다. 사람이 일일이 확인하던 복잡한 문서를 빠르게 분석할 수 있어 업무 효율을 높이는 데 활용될 수 있다는 평가다.

LG '엑사원 4.5'과 글로벌 동급 모델 벤치마크 점수 비교표. 사진 LG AI연구원

성능도 경쟁 모델과 비교해 높은 수준이다. 엑사원 4.5는 시각 처리와 추론 능력을 평가하는 여러 지표에서 지피티(GPT)-5 미니와 클로드 소넷 4.5 등 주요 모델을 웃돌았다. 특히 과학·기술·공학·수학(STEM) 분야 평가에서는 77.3점을 기록했다. 코딩과 복잡한 차트 분석에서도 구글 최신 모델을 앞섰다. 글로벌 AI 경쟁이 치열해지는 상황에서 국내 연구진이 주요 성능 지표에서 경쟁력을 확보했다는 점도 의미가 있다는 분석이다.

효율성도 높였다. 엑사원 4.5는 330억개 파라미터 규모로 크기는 기존 ‘K-엑사원’의 약 7분의 1이지만 텍스트 이해와 추론 성능은 유지했다. 더 작은 모델로 같은 수준의 결과를 낼 수 있어 비용과 연산 부담을 줄일 수 있다는 평가다.

지원 언어는 한국어와 영어를 포함해 스페인어·독일어·일본어·베트남어 등으로 확대했다. 다양한 언어 환경에서도 활용할 수 있어 글로벌 적용 가능성도 높아졌다는 분석이다.

LG AI연구원은 앞으로 엑사원을 음성과 영상, 물리 환경까지 이해하는 ‘피지컬 인텔리전스’로 발전시킬 계획이다. 이를 위해 독자 AI 모델 ‘K-엑사원’에 이미지 이해 능력을 추가하는 등 활용 범위를 넓힌다는 구상이다.

또 동북아역사재단 데이터 등을 활용해 한국의 역사와 문화 맥락을 반영한 학습을 진행하고, 자체 기준을 적용해 AI 신뢰성도 높이고 있다.

LG AI연구원은 이날 엑사원 4.5를 인공지능 모델 공유 플랫폼인 허깅페이스(Hugging Face)에 연구·학술·교육용으로 공개했다. 연구자와 개발자 활용을 위해 공개 범위를 넓혔다.

이진식 LG AI연구원 엑사원랩장은 “앞으로 음성과 영상, 물리 환경까지 이해 범위를 넓혀 산업 현장에서 실제로 판단하고 행동하는 AI로 발전시키겠다”고 말했다.

박영우 기자 november@joongang.co.kr

Copyright © 중앙일보. 무단전재 및 재배포 금지.