LG ‘엑사원 4.5’ 공개…문서·이미지 함께 읽는 AI
LG AI연구원이 9일 텍스트와 이미지를 동시에 이해하고 추론하는 인공지능(AI) 모델 ‘엑사원(EXAONE) 4.5’를 발표했다.
엑사원 4.5는 글과 그림을 함께 읽고 의미를 파악할 수 있는 AI다. 2021년 선보인 ‘엑사원 1.0’ 이후 축적한 기술을 바탕으로 개발됐다.
특징은 실제 산업 현장에서 쓰이는 문서를 이해하는 능력이다. 설계도면이나 재무제표, 계약서처럼 글과 그림이 섞인 자료를 분석해 전체 맥락을 파악할 수 있다. 사람이 일일이 확인하던 복잡한 문서를 빠르게 분석할 수 있어 업무 효율을 높이는 데 활용될 수 있다는 평가다.

성능도 경쟁 모델과 비교해 높은 수준이다. 엑사원 4.5는 시각 처리와 추론 능력을 평가하는 여러 지표에서 지피티(GPT)-5 미니와 클로드 소넷 4.5 등 주요 모델을 웃돌았다. 특히 과학·기술·공학·수학(STEM) 분야 평가에서는 77.3점을 기록했다. 코딩과 복잡한 차트 분석에서도 구글 최신 모델을 앞섰다. 글로벌 AI 경쟁이 치열해지는 상황에서 국내 연구진이 주요 성능 지표에서 경쟁력을 확보했다는 점도 의미가 있다는 분석이다.
효율성도 높였다. 엑사원 4.5는 330억개 파라미터 규모로 크기는 기존 ‘K-엑사원’의 약 7분의 1이지만 텍스트 이해와 추론 성능은 유지했다. 더 작은 모델로 같은 수준의 결과를 낼 수 있어 비용과 연산 부담을 줄일 수 있다는 평가다.
지원 언어는 한국어와 영어를 포함해 스페인어·독일어·일본어·베트남어 등으로 확대했다. 다양한 언어 환경에서도 활용할 수 있어 글로벌 적용 가능성도 높아졌다는 분석이다.
LG AI연구원은 앞으로 엑사원을 음성과 영상, 물리 환경까지 이해하는 ‘피지컬 인텔리전스’로 발전시킬 계획이다. 이를 위해 독자 AI 모델 ‘K-엑사원’에 이미지 이해 능력을 추가하는 등 활용 범위를 넓힌다는 구상이다.
또 동북아역사재단 데이터 등을 활용해 한국의 역사와 문화 맥락을 반영한 학습을 진행하고, 자체 기준을 적용해 AI 신뢰성도 높이고 있다.
LG AI연구원은 이날 엑사원 4.5를 인공지능 모델 공유 플랫폼인 허깅페이스(Hugging Face)에 연구·학술·교육용으로 공개했다. 연구자와 개발자 활용을 위해 공개 범위를 넓혔다.
이진식 LG AI연구원 엑사원랩장은 “앞으로 음성과 영상, 물리 환경까지 이해 범위를 넓혀 산업 현장에서 실제로 판단하고 행동하는 AI로 발전시키겠다”고 말했다.
박영우 기자 november@joongang.co.kr
Copyright © 중앙일보. 무단전재 및 재배포 금지.
- “내가 조연?” 정주영 분노했다…MB 곤혹케한 ‘유인촌 드라마’ | 중앙일보
- 차에 샤넬백 숨겼다…부부관계 거부한 아내가 만난 남자 | 중앙일보
- “평생 기계만 만졌다”…48세 아빠, ‘억대 연봉’ 사짜 된 비결 | 중앙일보
- “항문에 에어건 쏴 응급 수술…배변 봉투 찼다” 외노자 울린 대표 | 중앙일보
- '29금 영화' 따라하며 아내와 성관계…그 남편 법정 선 이유 | 중앙일보
- 마가도 “김정은보다 미쳤다”…‘치매설’ 터진 트럼프 한마디 | 중앙일보
- 배우 오연수 또 일냈다…“나라에서 주는 상 두번째 받아” 무슨 일 | 중앙일보
- ‘김혜경 여사 한복’에 꽂힌 프랑스 마크롱 사진사…비하인드컷 공개 | 중앙일보
- “연금 월 350도 소용없다” 은퇴자 65명이 알려준 최악 직업 | 중앙일보
- 윤석열 사단 6년9개월 왕좌의 게임…그 진군 끝에 78년 검찰 망했다 | 중앙일보