비서로, 집사로 진화한 AI… 인간처럼 추론하는 ‘GPT-5’도 온다 [AI 블랙홀 시대-인간다움을 묻다]

김헌주 2024. 1. 24. 05:01
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

<4>AI가 인간의 한계 넘을까

‘인공지능(AI)이라는 말이 사라진다?’

생성형 AI ‘챗GPT’ 등장 이후 AI가 광범위하게 일상에 녹아들면서 AI 기술 자체를 강조하는 현상은 올해를 기점으로 점차 줄어들 것이란 전망이 나온다. 이른바 ‘AI 역설’이다. AI가 제품, 서비스 안으로 들어가면서 ‘AI 기술을 적용했다’는 게 중요한 것이 아니라 AI를 통해 어떤 혁신을 이뤘는지가 중요해지는 시대로 바뀌고 있다는 뜻이다.

#美 CES 최대 화두
인터넷 필요 없는 AI 시대
주요 기업들도 뛰어들어

지난 9~12일(현지시간) 미국 라스베이거스에서 열린 세계 최대 가전·정보기술(IT) 전시회 CES 2024에서도 전자제품, 자동차, 로봇부터 안경, 유모차, 베개까지 다양한 제품이 AI라는 ‘옷’을 입고 이전보다 훨씬 똑똑해진 모습으로 사람들 앞에 나타났다. 남아 있는 손가락 신경의 작은 신호를 AI가 읽고 실제 손가락처럼 움직이는 ‘손가락 의수’, 음성을 수어로 바꿔 주고 사람처럼 풍부한 표정을 짓는 ‘3차원(D) AI 아바타’도 등장했다. CES 현장을 둘러본 장병탁 서울대 AI연구원장은 23일 “제품의 전반에 AI가 스며들고 있다”고 평가했다.

●모든 사물에 AI 적용하는 시대

이번 CES에서 주목받은 ‘AI 에이전트’와 ‘온디바이스 AI’는 AI 기술이 어떤 식으로 발전할지를 보여 준다. AI 에이전트는 사용자가 원하는 걸 알아서 척척 해 주는 일종의 AI 비서로 실제 구현되는 모습은 다양하다. 기능적으로 PC, 자동차 등에 내장되거나 움직이는 로봇 형태를 띨 수도 있다. 국내 가전업체가 공개한 ‘AI 로봇’도 AI 에이전트에 해당된다. AI 로봇은 사물인터넷(IoT)과 AI가 결합된 사물인공지능(AIoT·AI of Things)을 통해 개인 맞춤형 비서 역할뿐 아니라 집안 일을 대신해 주는 집사 역할도 할 것으로 전망된다.

인터넷 연결과 상관없이 기기 안에서 AI를 구동할 수 있는 온디바이스 AI도 PC, 스마트폰에서 구현되기 시작했다. 온디바이스 AI의 확산은 소규모언어모델(sLM) 개발 경쟁으로도 이어졌다. sLM은 오픈AI의 GPT-4, 구글 제미나이와 같은 대규모언어모델(LLM)에 비해 학습량은 적지만 최적화를 통해 최대한의 성능을 내면서 개발·구동 비용을 줄인 언어모델이다.

특히 AI의 학습 지표인 매개변수(파라미터)가 70억개(7B) 이하인 sLM 시장을 선점하기 위한 경쟁이 치열하다. 메타(라마2 7B), 구글(제미나이 나노1, 나노2), 마이크로소프트(파이2) 등 글로벌 주요 기업도 줄줄이 뛰어들었다.

지난해 ‘미스트랄 7B’에 이어 수학, 물리 등 작은 전문 모델로 쪼갠 뒤 질문에 따라 연결하는 방식의 ‘믹스트랄 8x7B’(전문가 믹스·MoE) 모델을 오픈소스(소프트웨어 설계도 공개)로 내놓은 프랑스 스타트업 미스트랄 AI는 오픈AI의 대항마로 떠오르고 있다.

#연내 ‘GPT-5’ 공개
GPT-4에 추론 기능 추가
인간 수준 AI 현실화 전망

이경전 경희대 경영학·빅데이터응용학과 교수는 “중요한 건 모델을 실제 사용하고 난 뒤의 평가”라면서 “미스트랄을 써 본 기업들 얘기를 들어 보면 다들 ‘써 보니 좋다’고 한다. 오픈 소스로 이만큼 따라왔다는 건 한국 기업에도 희소식”이라고 말했다.

●텍스트 넘어 이미지·영상·음성도 생성

성능으로 승부를 보는 LLM의 진화도 계속되고 있다. 오픈AI의 최신 LLM인 GPT-4(매개변수 1조 7000억개 추정)보다 더 많은 기능이 추가된 GPT-5가 올해 안에 공개될 예정이다. 추론 기능도 추가된다고 한다. 텍스트(글자)를 학습하는 걸 넘어 이미지·영상·음성을 분석하고 생성하는 ‘멀티 모달’ 방식으로도 발전하고 있다. 인간이 다양한 방식을 통해 사물을 인식하는 것과 동일하게 AI가 학습한다는 얘기다. ‘할루시네이션’(환각 현상·AI가 정보를 처리하는 과정에서 그럴듯한 오답을 내놓는 현상)은 완전히 제거되지 않았지만 인간처럼 사고하고 판단할 수 있는 능력을 갖춘다는 건 인공일반지능(AGI·인간 수준으로 일을 처리하는 AI)이 현실화할 수 있다는 의미로 해석된다.

#AI 어디까지 왔나
AGI는 초기 단계 머물러
감각 분석 기술 집중해야

구글 딥마인드의 6단계 분류 기준으로 보면 특정 업무 수행에 초점을 맞춘 AI 중에선 단백질 구조 예측 AI ‘알파폴드’처럼 이미 인간을 뛰어넘는 ‘레벨5’(슈퍼휴먼)의 AI도 등장했다. 그러나 전반적인 업무를 수행할 수 있는 AGI(챗GPT, 바드, 라마2)는 아직 ‘레벨1’(초기 단계)에 머물러 있다.

장 원장은 “텍스트를 학습한 생성형 AI의 성능에 대해선 연구자들도 놀라고 있다”면서 “AGI 시대가 앞당겨지는 느낌을 많이 받는다”고 말했다. 그러면서도 “시각 등 감각에 해당하는 부문은 아직 데이터화되지 않은 게 많다”며 “표정이나 감정을 분석하는 건 어려운 기술이지만 이게 가능해지면 파급효과가 엄청나다. 우리가 집중해야 할 부분”이라고 강조했다.

김헌주 기자

Copyright © 서울신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?