챗GPT 열풍에…LG, 곧 초거대 AI '엑사원' 시연 나선다

최영지 2023. 2. 15. 11:15
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

시연 대상·주제 검토…배경훈 AI연구원장 직접 공개·설명
네이버도 상반기 내 ‘서치GPT’ 선보여…각축전 예상
사실 기반 전문가용 AI기술·이미지 생성 등 차별화
챗GPT 규제 문제 불거지자 LG AI윤리 5대 원칙에 이목

[이데일리 최영지 기자] 오픈AI의 챗GPT 등장으로 인공지능(AI)과의 소통에 대한 관심이 뜨거워진 가운데 LG도 자체개발에 성공, 계열사 사업에 활용 중인 초거대 AI ‘엑사원’ 공개에 나선다. 대중에 공개하는 건 처음으로, 시연을 통해 전문가 AI라는 차별성을 토대로 한 엑사원의 그간 연구 및 사업 성과를 다채롭게 선보일 것으로 기대된다.

초거대 인공지능 엑사원으로 구현한 AI 아티스트 틸다가 출국 전에 공항에서 대기하고 있다.(사진=㈜LG)
“사실 기반 정보·이미지 생성 특징…성급하게 공개하진 않을 것”

15일 업계에 따르면 LG(003550)는 올해 상반기 내 엑사원의 시연을 계획 중이며 시연 대상과 주제, 방법 등을 고심하고 있다. 챗GPT에 이어 구글도 AI 서비스인 ‘바드’를 공개하는 등 AI 챗봇 열풍이 거세지며 LG 내외부에서 LG의 성과로 꼽히는 엑사원의 공개 필요성이 제기된 탓이다. 앞서 세계적인 AI학회인 ‘국제 컴퓨터 비전 및 패턴 인식 학술대회’(CVPR) 등에서 데모 영상을 통해 엑사원을 보인 적은 있지만 실제 시연을 한 적은 없었다. 국내기업 중에선 네이버(035420)도 올 상반기 AI 한국판 챗GPT인 ‘서치GPT’를 선보일 예정이다.

LG 관계자는 “시류에 휩쓸려 성급하게 공개하진 않을 것”이라며 “공개된 AI 챗봇과 달리 엑사원은 전문가용 AI인 데다 텍스트 이외 이미지처리도 가능하기에 특성을 가장 잘 보여줄 방법을 찾고 있다”고 했다. 예컨대 전문가AI인 만큼 대중 입장에서 얼마나 이해가 쉬울 정보를 제공할 수 있을지, 정보를 제공할 전문 분야를 어떻게 선정할지 등에 대한 고민이 따르고 있다. 앞서 구글이 공개한 바드의 경우 청중 앞에서 오답을 쏟아내며 체면을 구겼으며, 챗GPT 대응에 구글이 성급하게 나선 것 아니냐는 지적도 나왔다.

엑사원은 LG가 AI전담조직인 LG AI연구원이 지난 2020년 설립되고 1년 만에 개발한 초거대 AI다. 지난해 미국 뉴욕 패션위크에서 디자인한 의상을 선보이며 화제를 일으킨 인공지능(AI) 휴먼 ‘틸다(Tilda)’는 엑사원으로 구현됐다.

‘EXpert Ai for everyONE’의 축약어로 ‘인간을 위한 전문가 AI’를 의미하는 엑사원은 금융, 제조, 의료, 디자인, 교육, 서비스 등 사실상 전 영역에서 인간 전문가와의 협업 가능성을 높여가고 있다. 1차적인 목표를 AI 기술을 통해 신약 개발, 스마트 팩토리 내 전지 개발 공정, 수요 예측 등 난이도가 높은 사업 성과를 내는 것으로 정했다. 이는 대중성을 목적으로 한 챗 GPT 등과의 차이점이다.

엑사원은 시연시 챗GPT와는 다른 결과물을 내놓을 것으로 보여 기대감도 모아지고 있다. 사실이 아니어도 그럴듯하게 지어내는 식의 답을 하는 챗GPT와 달리 엑사원은 사실을 기반으로 답하는 구조를 갖고 있다. 질문에 대한 대답과 함께, 논문 등 관련 자료도 제공하는 것이다. 예컨대 기존 AI는 텍스트를 분석해 이미지를 찾는 수준이었다면 엑사원은 이미지 생성도 가능해 다양한 형태의 지식 제공이 가능하다. 엑사원은 “호박 모양의 모자를 만들어 줘”라고 말하면, 학습된 정보를 기반으로 스스로 판단해 호박 모양의 모자 이미지를 새롭게 만들어 낸다.

배경훈 LG AI연구원장을 포함 각 연구분야별 리더들이 화학과 AI 등 모듈을 토대로 한 시연에 나설 가능성도 제기되고 있다.

엑사원이 만든 호박 모양의 모자. (사진=LG)
대필·표절 논란에 규제 목소리…앞서 ‘윤리 원칙’ 만든 LG

챗GPT를 통해 얻은 답변이 사실이 아니거나 왜곡된 경우가 다수 보고되는가 하면 대필과 표절 등 악용사례도 잇따르며 AI 규제의 필요성도 나오고 있다. AI 서비스를 내놓은 오픈AI와 같은 회사가 공개에 앞서 규제를 하거나 윤리 등 교육을 병행했어야 했다는 지적도 빗발친다. 미라 무라티 오픈AI 최고기술책임자(CTO)는 5일(현지시간) 미국 시사주간지 타임지와 인터뷰에서 “높은 인기는 일부 윤리적 문제를 야기했다”며 “AI 도구들은 오용되거나 나쁜 행위자들에 의해 사용될 수 있다”고 말했다.

2020년 12월말 소개된 AI챗봇 ‘이루다’는 AI윤리 문제를 그대로 보여주는 사례다. 공개와 동시에 폭발적 인기를 끌었으나 성희롱·혐오 발언, 개인정보 유출 등 논란에 20여일 만에 서비스를 잠정 중단했다.

이때문에 선제적으로 AI를 개발하는 데 필요한 AI 윤리 원칙을 마련한 LG에 이목이 집중되고 있다. LG는 신뢰할 수 있는 AI를 개발하기 위해 필수적인 가치와 ‘고객을 위한 가치창조’와 ‘인간존중의 경영’이라는 경영 이념을 고려해 5대 핵심 가치를 지난해 선정했다.

5대 가치에는 AI가 인간의 자율성과 존엄성과 같은 권리를 침해하지 않고, 인류에 긍정적인 가치를 제공할 수 있어야 한다는 ‘인간존중’, AI가 성별·나이·장애 등 인간의 개인 특성에 기초한 부당한 차별을 하지 않고 다양성을 존중하며 공정하게 작동할 수 있도록 하는 ‘공정성’, AI를 활용한 제품과 서비스를 접하는 고객들이 신뢰할 수 있도록 안전과 관련된 부분들은 글로벌 수준의 검증 시스템을 항시 가동한다는 ‘안전성’을 담았다.

또 AI를 개발하고 활용하는 LG 구성원들이 주인 의식을 가지고 역할과 책임을 명확히 해야 한다는 ‘책임성’, AI의 알고리즘과 데이터 활용은 원칙과 기준에 따라 투명하게 관리하며, AI가 내놓은 결과를 고객들이 이해할 수 있도록 끊임없이 소통한다는 ‘투명성’까지 포함했다.

이를 바탕으로 2023년까지 LG가 연구하고 있는 AI의 세부 분야별 윤리 가이드라인을 개발해 계열사로 전파한다는 계획이다.

LG AI 윤리원칙.(사진=LG)

최영지 (young@edaily.co.kr)

Copyright © 이데일리. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?