LG, 초거대 AI 모델 ‘엑사원(EXAONE) 2.0’ 공개… 신소재·신약 개발에 활용
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
LG AI연구원은 2021년 12월 첫 선을 보인 '엑사원'의 개선된 모습을 소개했다.
LG 계열사와 국내외 파트너사들이 '엑사원'으로 보다 빠르고 편리하게 각 분야에 특화된 전문가 AI를 사용할 수 있도록 연구개발을 이어왔다.
LG AI연구원은 엑사원 유니버스를 각 분야의 전문가들이 믿고 정보를 탐색하며 결과를 얻을 수 있는 플랫폼으로 만들기 위해 전문성과 신뢰성을 높이는 데 주력했다고 설명했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
LG AI연구원은 초거대 인공지능(AI) 모델인 ‘엑사원(EXAONE) 2.0′을 공개했다고 19일 밝혔다.
LG AI연구원은 2021년 12월 첫 선을 보인 ‘엑사원’의 개선된 모습을 소개했다. LG 계열사와 국내외 파트너사들이 ‘엑사원’으로 보다 빠르고 편리하게 각 분야에 특화된 전문가 AI를 사용할 수 있도록 연구개발을 이어왔다.
이번에 공개한 ‘엑사원 2.0′은 파트너십을 통해 확보한 특허, 논문 등 약 4500만 건의 전문 문헌과 3억5000만 장의 이미지를 학습했다는 게 LG의 설명이다. LG AI연구원은 앞으로도 저작권, 신뢰성 등 AI 윤리원칙을 준수하며 데이터 학습을 진행한다는 계획이다.
LG AI연구원은 현존하는 전문 지식 데이터의 상당수가 영어로 되어 있는 점을 고려해 ‘엑사원 2.0′을 한국어와 영어를 동시에 이해하고 답변할 수 있는 이중 언어(Bilingual) 모델로 개발했다. 학습 데이터 양도 기존 모델 대비 4배 이상 늘려 성능을 높였다. 초거대 AI의 고비용 이슈를 해결하기 위해 대규모 언어 모델(LLM)과 멀티모달 모델의 경량화, 최적화 신기술에 상당한 리소스를 투입했다고 밝혔다.
LG AI연구원은 ‘엑사원 2.0′의 언어 모델은 기존 모델과 동일한 성능을 유지하면서도 추론 처리 시간은 25% 단축하고, 메모리 사용량은 70% 줄여 비용을 약 78% 절감했다. 언어와 이미지 간의 양방향 생성이 가능한 멀티모달 모델은 이미지 생성 품질을 높이기 위해 기존 모델 대비 메모리 사용량을 2배 늘렸다. 추론 처리 시간은 83% 단축해 약 66%의 비용 절감을 달성했다.
LG AI연구원은 고객들이 ‘엑사원 2.0′을 원하는 용도나 예산에 맞게 모델의 크기부터 종류(언어, 비전, 멀티모달), 사용 언어까지 맞춤형으로 설계할 수 있다고 설명했다. LG AI연구원은 고객 데이터 보안을 위해 학습 과정을 미세 조정하는 파인 튜닝과, AI 인프라를 고객이 보유한 서버에 직접 설치하는 구축형(On-Premise)과 사설 클라우드(Private Cloud) 방식도 지원한다.
LG AI연구원은 대표적인 엑사원 활용 사례로 LG전자의 AICC(AI 컨택 센터)도 공개했다. AICC는 고객과의 상담 내용을 실시간으로 분석·요약하고 상담 내용에 적합한 답변이나 콘텐츠를 제안한다. LG AI연구원은 국내에서 시범 운영 중인 AICC를 하반기 중 정식 서비스로 전환할 예정이며, 내년부터 영어권 국가로 확대할 계획이다.
LG AI연구원은 이날 ‘전문가 AI’ 서비스 개발의 기반인 엑사원 3대 플랫폼인 유니버스(Universe), 디스커버리(Discovery), 아틀리에(Atelier)를 차례로 공개했다. 엑사원 유니버스는 질의응답·대화, 텍스트 분류·요약, 키워드 추출·생성, 번역 등 기능별로 메뉴를 나눴던 방식에서 전문가용 대화형 AI 플랫폼으로 전환 바뀌었다.
LG AI연구원은 엑사원 유니버스를 각 분야의 전문가들이 믿고 정보를 탐색하며 결과를 얻을 수 있는 플랫폼으로 만들기 위해 전문성과 신뢰성을 높이는 데 주력했다고 설명했다. 엑사원 유니버스는 다른 대화형 AI들과 달리 사전 학습한 데이터는 물론 각 도메인별 최신 전문 데이터까지 포함해 근거를 찾아내며 추론한 답변을 생성한다. 질문에 대한 답변과 함께 화면 좌측과 우측에 각각 질문과의 연관성이 가장 높은 전문 문헌들과 AI가 답변하는 과정에서 활용한 단락을 표시한다.
엑사원 디스커버리는 새로운 지식을 발견하는 플랫폼으로 가장 먼저 신소재·신물질·신약 관련 탐색에 적용하고 있다. LG AI연구원은 엑사원 디스커버리에 논문과 특허 등 전문 문헌의 텍스트뿐만 아니라 분자 구조, 수식, 차트, 테이블, 이미지 등 비텍스트 정보까지 AI가 읽고 학습할 수 있는 형태로 데이터베이스화 하는 심층 문서 이해(DDU) 기술을 적용했다.
엑사원 아틀리에는 저작권이 확보된 이미지-텍스트가 짝을 이룬 페어(Pair) 데이터 3.5억 장을 학습한 엑사원 2.0을 기반으로 이미지 생성과 이미지 이해에 특화된 기능을 제공한다. LG AI연구원은 인간과 AI가 상호작용을 통해 디자인을 완성해가는 ‘디자인 싱킹 프로세스’를 엑사원 아틀리에에 접목하기 위해 미국 파슨스 디자인 스쿨과의 공동 연구개발을 이어가고 있다고 설명했다. 지난 6월 셔터스톡(Shutterstock)과 함께 상용화한 ‘캡셔닝 AI’ 기능도 엑사원 아틀리에에 탑재했다. 캡셔닝 AI는 처음 보는 이미지까지 자연어로 설명할 수 있으며, 이미지 검색에 활용할 수 있는 정보인 문장이나 키워드 등의 메타 데이터를 생성한다.
배경훈 LG AI연구원장은 이날 행사에서 “LG는 국내에서 유일하게 이중 언어 모델과 양방향 멀티모달 모델을 모두 상용화한 기업이며, 세상의 지식을 이해하고 발견하는 상위 1%의 전문가 AI를 개발하고 있다”며 “국내외 파트너사와의 협력을 통해 실질적인 성공 사례를 만들어가며 ‘다른 생성형 AI들과는 차별화된 고객 가치’를 창출하는 글로벌 경쟁력을 갖춘 AI 컴퍼니로 발전해 나갈 것”이라고 강조했다.
- Copyright ⓒ 조선비즈 & Chosun.com -
Copyright © 조선비즈. 무단전재 및 재배포 금지.
- ‘혁신 속 혁신’의 저주?… 中 폴더블폰 철수설 나오는 이유는
- [주간코인시황] 美 가상자산 패권 선점… 이더리움 기대되는 이유
- [증시한담] 증권가가 전하는 후일담... “백종원 대표, 그래도 다르긴 합디다”
- [당신의 생각은] 교통혼잡 1위 롯데월드타워 가는 길 ‘10차로→8차로’ 축소 논란
- 중국이 가져온 1.935㎏ 토양 샘플, 달의 비밀을 밝히다
- “GTX 못지 않은 효과”… 철도개통 수혜보는 구리·남양주
- 李 ‘대권가도’ 최대 위기… 434억 반환시 黨도 존립 기로
- 정부효율부 구인 나선 머스크 “주 80시간 근무에 무보수, 초고지능이어야”
- TSMC, 美 공장 ‘미국인 차별’로 고소 당해… 가동 전부터 파열음
- [절세의神] 판례 바뀌어 ‘경정청구’했더니… 양도세 1.6억 돌려받았다