AI 발전위해… LG,‘엑사원3.0’ 오픈소스로 개방

김성훈 기자 2024. 8. 7. 11:51
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

LG그룹이 국내 최초로 인공지능(AI) 오픈소스 거대언어모델(LLM) '엑사원(EXAONE) 3.0'을 공개하고, 연구 목적으로 외부 개발자들이 활용할 수 있도록 개방했다.

LG AI연구원은 7일 최신 AI 모델 엑사원 3.0을 오픈소스로 공개하고, 이 가운데 활용도가 높은 가벼운 버전을 AI 연구 생태계 발전을 위해 외부에 개방하기로 했다고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

외부개발자 자유롭게 활용 가능
코딩·수학 등 13개 벤치마크 1위
처리시간 56% 줄고 비용 72%↓
하반기엔 탑재 제품·서비스 출시
글로벌 파트너십 논의도 활발

LG그룹이 국내 최초로 인공지능(AI) 오픈소스 거대언어모델(LLM) ‘엑사원(EXAONE) 3.0’을 공개하고, 연구 목적으로 외부 개발자들이 활용할 수 있도록 개방했다. 미국 빅테크들의 AI 모델 개발을 둘러싼 각축전이 전개되고 있는 가운데, LG의 ‘한국형 GPT(오픈AI가 개발한 AI모델)’가 성능 면에서 글로벌 경쟁력을 입증하며 업계 이목을 집중시키고 있다.

LG AI연구원은 7일 최신 AI 모델 엑사원 3.0을 오픈소스로 공개하고, 이 가운데 활용도가 높은 가벼운 버전을 AI 연구 생태계 발전을 위해 외부에 개방하기로 했다고 밝혔다. 엑사원 3.0은 LG그룹이 자체 개발한 LLM이다. 이번 버전은 지난해 7월 ‘엑사원 2.0’을 선보인 이후 약 1년 만에 출시한 최신 모델로 성능이 대폭 향상된 것이 특징이다. 추론 처리시간이 약 56% 감축됐고, 메모리 사용량도 약 35% 낮췄다. 또 AI로 촉발된 소비 전력 문제를 해결하기 위해 경량화·최적화 기술 연구에 집중, 초기 모델 대비 크기를 100분의 3으로 줄이는 데 성공했다. 구동 비용 역시 약 72% 절감, 경제성까지 잡았다고 LG AI연구원은 설명했다.

엑사원 3.0은 코딩과 수학 영역 등 13개 벤치마크(성능 평가지표) 점수 순위에서도 1위를 차지했다. 메타의 라마(Llama) 3.1, 구글의 젬마(Gemma) 2 등 빅테크가 개발한 동일 크기의 오픈소스 AI 모델과 비교에서도 성능 우위를 점해 글로벌 경쟁력을 입증했다는 평가가 나온다.

한국어 성능도 세계 최고 수준으로 나타났다. 엑사원 3.0은 특허와 소프트웨어 코드를 비롯해 수학·화학 등 국내외 전문 분야 데이터 6000만 건 이상을 학습했다. LG AI연구원은 올 연말까지 법률·바이오·의료 등까지 분야를 확장해 학습 데이터양을 1억 건 이상으로 대폭 끌어올리겠다는 계획이다. 하반기부터는 엑사원 3.0이 들어간 LG 제품과 서비스를 출시할 예정이며, 글로벌 파트너십 논의도 활발하게 진행 중이다.

LG그룹은 이날부터 임직원을 대상으로 엑사원 3.0 기반 생성형 AI인 ‘챗엑사원(ChatEXONE)’ 베타 서비스도 시작했다.

챗엑사원은 △실시간 웹 정보 기반 질의응답 △문서 이미지 기반 질의응답 △코딩 △데이터베이스 관리 등 다양한 기능을 제공하는 ‘한국형 챗GPT’로 평가받는다. 소프트웨어 개발자와 데이터 분석 전문가를 위한 기능도 포함돼 임직원의 업무 효율성을 대폭 향상할 수 있을 것으로 기대하고 있다.

한편, 삼성전자는 국내 대기업 중 AI 관련 특허 등록 건수가 가장 많은 것으로 나타났다. 기업데이터연구소 CEO스코어가 특허청에 AI 관련 특허를 등록한 대기업 111곳을 대상으로 조사한 결과, 지난달 12일 기준 전체 1503건 중 삼성전자가 최다인 387건을 등록한 것으로 집계됐다. LG전자가 154건으로 2위를 차지했고, 이어 네이버(90건), SK텔레콤(78건) 등이 뒤를 이었다.

김성훈 기자 powerkimsh@munhwa.com

Copyright © 문화일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?