'너스레'까지 떠는 로봇…2주새 확 달라진 비밀은 [AI 한입뉴스]

최유리 2024. 3. 16. 14:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

휴머노이드(인간형 로봇) '피규어01'이 단 2분34초짜리 영상으로 일약 스타덤에 올랐습니다.

컴퓨터그래픽(CG)을 입힌 것처럼 동작이 자연스러울뿐 아니라 스스로 생각하고 행동하는 모습을 보여줬기 때문이죠.

로봇이 대규모언어모델(LLM)을 탑재했다는 건 단순히 성능이 좋아졌다는 것 이상의 의미를 갖습니다.

피규어AI 측은 "피규어01의 움직임은 로봇이 직접 보고 판단해 행동한 것"이라며 "다음 행동을 계획하고 기억을 반영해 자기 생각을 논리적으로 설명할 수 있다"고 밝혔습니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI 두뇌 탑재한 휴머노이드 '피규어01'
사람 의도 파악하고 행동…"나 꽤 잘 했죠"

휴머노이드(인간형 로봇) '피규어01'이 단 2분34초짜리 영상으로 일약 스타덤에 올랐습니다. 컴퓨터그래픽(CG)을 입힌 것처럼 동작이 자연스러울뿐 아니라 스스로 생각하고 행동하는 모습을 보여줬기 때문이죠. 휴머노이드 스타트업 피규어AI가 챗GPT 개발사 오픈AI와 협업을 선언한 지 2주 만에 내놓은 결과물이라 놀랍다는 평가가 나옵니다.

사과를 건네는 행동부터 볼까요. 단순한 동작처럼 보이지만 로봇은 많은 과정을 거쳐야 합니다. 일단 "뭐 먹을 게 있을까?"라는 질문을 듣고 이해하려면 언어능력이 필요하겠죠. 테이블 위를 보고 어떤 물건인지 구분하는 인지능력도 갖춰야 합니다. 이어 컵, 접시, 사과 가운데 먹을 게 무엇인지 판단해야 하고요. 사과를 집어 사람에게 자연스럽게 건네는 물리적 동작은 또 다른 영역입니다.

다음 행동을 추론하고 스스로의 행동을 평가하는 모습도 인상적입니다. "앞에 있는 접시를 어디로 옮겨야 하느냐"고 묻자 피규어01은 "옆에 있는 식기건조대에 둬야겠다"며 행동으로 옮겼죠. 실험자가 테이블에 쓰레기를 쏟았을 때는 주문을 하지 않았는데도 이를 주워담았습니다. "스스로의 행동을 어떻게 평가하냐"는 질문에는 "꽤 잘한 것 같다"고 너스레를 떨기도 했고요. 말투 역시 딱딱한 기계음이 아니라 더듬기도 하는 등 자연스러웠습니다.

피규어01이 처음 공개된 지난해 3월과 비교하면 장족의 발전입니다. 당시 피규어01은 두 다리로 걷고 박스를 컨테이너벨트로 옮기는 등 비교적 단순한 작업만 수행했죠. 그러다 지난달 덜컥 오픈AI, 마이크로소프트(MS), 앤비디아 등에게 약 9000억원을 투자받았습니다. 오픈AI와 함께 차세대 AI 로봇을 개발하고 MS의 인프라 지원도 받기로 했죠.

오픈AI와 협업으로 '똑똑한 두뇌' 탑재…대규모언어모델(LLM)의 힘

[이미지출처=AP연합뉴스]

단순 동작만 하던 피규어01가 급성장한 이유는 여기에 있습니다. 오픈AI의 AI 모델을 탑재하면서 강력한 두뇌가 생긴 것. 로봇이 대규모언어모델(LLM)을 탑재했다는 건 단순히 성능이 좋아졌다는 것 이상의 의미를 갖습니다. 로봇을 훈련하는 방식 자체가 달라지기 때문이죠.

이전에는 로봇을 가르치는 데 오랜 시간이 걸렸어요. 특정 업무를 시키려면 행동 하나하나를 프로그래밍해야 했죠. 엎질러진 콜라를 치워야 한다고 예를 들어보겠습니다. 이 경우 ▲엎질러진 콜라가 치워야 할 대상인 것을 알고 ▲콜라캔을 집어들어 ▲콜라를 닦을 무언가를 찾는 등 행동 하나하나를 훈련시켜야 했어요. 콜라가 아닌 물을 쏟거나 캔이 아닌 유리컵에 담겨 있는 경우는 별도로 가르쳐야 하죠.

LLM을 탑재하면 얘기가 달라집니다. 방대한 텍스트 속 정보와 로봇이 보는 시각적 정보를 더해 스스로 기술을 배워서 실행할 수 있어요. LLM 기반 챗GPT에게 이메일 작성법과 소설 작문법을 따로 가르치지 않아도 되는 것처럼 LLM 기반 로봇은 새 작업에 필요한 도구나 동작을 결정할 수 있는 셈입니다. 피규어AI 측은 "피규어01의 움직임은 로봇이 직접 보고 판단해 행동한 것"이라며 "다음 행동을 계획하고 기억을 반영해 자기 생각을 논리적으로 설명할 수 있다"고 밝혔습니다.

지난해 7월 구글이 공개한 AI 로봇 'RT-2'도 마찬가지입니다. RT-2은 미국, 독일 등 국기를 펼쳐놓고 '폭스바겐 장난감 자동차를 독일 국기 앞에 두라'는 복잡한 명령을 척척 수행했는데요. 대량의 데이터에서 지식을 습득했기 때문에 독일 국기와 폭스바겐 자동차가 무엇인지 별도의 훈련을 받지 않아도 아는 것이죠. 최홍섭 마음AI 기술부문 대표는 "파운데이션 모델 덕분에 AI를 잘하는 회사가 로봇까지 잘할 수 있다"며 "로봇의 능력이 발전하는 속도가 빨라질 것"이라고 내다봤습니다.

※용어설명 : 파운데이션 모델(Foundation Models) 제한적 사례가 아닌 광범위한 데이터를 학습하고 다양한 작업을 수행할 수 있는 AI

최유리 기자 yrchoi@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?