“뭐 좀 먹자” 했더니… 사과·컵·접시 중 사과 집어 “드세요”

박지민 기자 2024. 3. 15. 03:01
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[사이언스 카페]
피겨AI, 휴머노이드 영상 공개

글로벌 빅테크의 구애를 받고 있는 미국 휴머노이드(인간형 로봇) 스타트업 ‘피겨AI’가 챗GPT 개발사 오픈AI와 협업해 만든 로봇이 13일(현지 시각) 공개됐다.

피겨AI는 이날 오픈AI의 인공지능(AI) 모델이 탑재된 자사 휴머노이드 ‘피겨01′의 영상을 유튜브에 게시했다. 영상에서 로봇은 “지금 무엇이 보이느냐”는 질문에 “테이블 중간에 놓인 접시 위의 사과, 컵과 접시와 건조대, 그리고 테이블 위에 손을 올린 채 서 있는 당신의 모습이 보인다”고 자세하게 말한다. 이어 직원이 “뭐 좀 먹을 수 있겠느냐”고 묻자 로봇은 접시에 놓인 사과를 직원에게 건넨다. 왜 사과를 건넸냐는 질문에는 “책상에서 먹을 수 있는 것이 사과뿐이었기 때문”이라며 자신의 판단 근거도 설명했다.

그래픽=백형선

피겨01은 다음에 해야 할 행동도 스스로 추론해낸다. “앞에 있는 접시들을 어디로 옮겨야 한다고 생각하느냐”는 질문에는 “옆에 있는 건조대에 들어가야 할 것 같다”고 답했다. 직원이 지금까지의 작업에 대해 “어떻게 수행했다고 생각하느냐”고 묻자 “상당히 잘했다고 생각한다. 사과는 새 주인을 찾았고 식기류도 제자리를 찾았다”고 답하며 자신의 행동을 정리하고 평가했다. 말을 더듬거나 직접적으로 언급하지 않은 대명사까지 이해하는 등 사람과 비슷한 모습도 여러 차례 연출했다.

기존에 공개된 피겨01은 걷기, 캡슐 커피 기기 작동하기, 짐 나르기 등 단순하고 명확한 작업들만 할 수 있었다. 하지만 두뇌에 오픈AI의 AI 모델을 탑재하면서 시각적인 정보를 추론하거나 미래의 행동을 예측하고, 자신의 추론 근거를 설명하는 등 실제 사람과 대화하는 수준까지 진화했다. 특히 이런 진전은 양사가 로봇 학습의 범위를 늘린다며 협업을 선언한 지 2주 만에 내놓은 결과물이다. 피겨AI 측은 “로봇의 카메라가 찍은 이미지와 마이크로 입력한 음성을 오픈AI의 모델로 보낸다”며 “모델은 과거의 이미지, 대화 이력을 고려해 행동과 언어 응답을 한다”고 했다. 피겨AI는 테슬라와 보스턴다이내믹스 출신 엔지니어들이 설립한 업체로 지난달 오픈AI, 마이크로소프트, 엔비디아 등에서 대규모 투자를 받았다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?