청소·분리수거도 척척…‘AI 로봇 집사’ 눈앞에
프로그래밍이나 별도의 훈련 없어도 스스로 학습해 명령을 이행하는 인공지능(AI) 로봇 모델이 개발됐다. 빨래하고 청소하는 ‘AI 로봇 집사’가 조만간 등장할 수 있을지 기대감이 커지고 있다.
구글은 28일(현지시간) 신규 AI 모델인 로보틱스 트랜스포머2(RT-2)를 공개했다. 지난해 공개한 RT-1의 업그레이드 버전이다. 이전 모델인 RT-1은 물건을 들어 옮기고 서랍을 여는 작업을 수행하기 위해 엔지니어의 프로그래밍 작업이 필요했다.
반면, RT-2는 할 일을 일일이 입력하지 않아도 인터넷상 이미지와 텍스트를 바탕으로 스스로 기술을 습득해 실행 방법을 찾아낸다. 구글은 이를 ‘시각-언어-행동’ 모델이라고 소개했다. 뉴욕타임스(NYT)는 이날 “RT-2가 거대언어모델(LLM, large language model)을 일종의 인공 두뇌처럼 사용해 이런 능력을 갖출 수 있게 됐다”고 전했다.
챗GPT를 비롯해 생성 AI가 적용된 다양한 서비스가 출현하고 있지만 아직은 소프트웨어·애플리케이션 등 디지털 분야에 편중돼 있다. 하지만 LLM이 로봇에 적용될 경우 자연어 명령만으로 로봇을 조종해 실물 세계의 다양한 영역에서 로봇을 활용할 수 있게 된다.
NYT에 따르면 엔지니어가 독일과 미국 등의 국기를 펼쳐 놓은 뒤 “폭스바겐 장난감 차를 독일 국기로 이동시키라”고 명령하자 RT-2는 이를 인식하고 장난감 차를 집어 들어 독일 국기 위에 올려놓았다. 또한 RT-2는 바나나껍질, 과자 봉지 등 쓰레기를 스스로 구분하고 이를 주워 버릴 수 있다. 구글 AI 개발을 담당하는 딥마인드의 로봇 책임자 빈센트 반호크는 “RT-2는 대량의 웹 데이터에서 지식을 수용할 수 있기 때문에 이미 쓰레기가 무엇인지에 대한 개념을 갖고 있으며 훈련 없이도 이를 식별할 수 있다”고 말했다.
구글은 “아직 RT-2 로봇을 판매할 계획이 없다”고 밝혔다. 그러면서도 “앞으로 이 로봇은 창고 작업을 하거나 의료기기를 다룰 때 사용될 수 있고, 세탁물을 정리하고 식기세척기를 돌리는 가사 도우미로도 쓰일 수 있을 것”이라고 설명했다. 일각에서는 허위 정보를 사실처럼 말하는 할루시네이션(hallucination·환각) 현상이나 오작동 가능성을 이유로 RT2가 위험을 초래할 수 있다는 지적도 나온다. 최혁렬 성균관대 기계공학과 교수는 “AI의 환각으로 인한 안전 문제나 오작동으로 인한 기술적 문제가 제대로 대비되지 않는다면 LLM 기반 로봇 응용 모델이 인간의 실생활에 들어올 가능성은 매우 작다”고 말했다.
여성국 기자 yu.sungkuk@joongang.co.kr
Copyright © 중앙일보. 무단전재 및 재배포 금지.
- “상계파 힘 쓰는 형이 상주” 빈소서 목격한 조폭 인증법 | 중앙일보
- "내 상사는 내가 고른다"…통념 깨부순 日회사서 벌어진 일 [세계 한잔] | 중앙일보
- 이 여가수 공연장서 7만명 들썩…규모 2.3 지진 진동 감지됐다 | 중앙일보
- '과자 7만원'도 한몫했다...엔데믹 후 첫 여름휴가 3가지 키워드 | 중앙일보
- "주호민 부부, 아들로 인한 성교육 강사도 아는 사람으로 요구" | 중앙일보
- 대도서관·윰댕, 라방으로 8년만에 '이혼 발표'…재산 분배는 | 중앙일보
- 법원은 영탁 손 들어줬다…"예천양조, '영탁막걸리' 상표 떼라" | 중앙일보
- 보령 '흠뻑쇼' 숨은 비화…싸이가 표 수백 장 보내줘 난리 났다 | 중앙일보
- 뇌 손상→전신 장기 망가짐→사망...'폭염'이 진짜 위험한 이유 | 중앙일보
- 자긴 성매매하고 스토킹 꾸짖은 판사...적발뒤 한달간 재판했다 | 중앙일보