MS, 피지컬 AI 경쟁 참전…로보틱스 모델 '로-알파' 공개

현대인 2026. 1. 22. 19:39
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

마이크로소프트(MS)가 피지컬 인공지능(AI) 경쟁에 참전한다.

MS 리서치는 자사 AI 모델 '파이' 시리즈 모델을 활용한 시각언어행동(VLA) 모델을 기반으로 자사 첫 번째 로보틱스 모델 '로-알파'(Rho-alpha, ρα)를 개발했다고 21일(현지시간) 밝혔다.

애슐리 로렌스 MS 리서치 액셀러레이터 부사장은 "피지컬 AI가 로보틱스를 재정의하고 있다"며 "로봇이 복잡하고 예측 불가능한 환경에서 인지·추론·행동할 수 있도록 지원한다"고 했다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

마이크로소프트(MS)의 첫 로보틱스 모델 '로-알파'가 탑재된 중국 유니트리 G1 휴머노이드 로봇. [사진=마이크로소프트 공식 홈페이지 영상 캡처]

마이크로소프트(MS)가 피지컬 인공지능(AI) 경쟁에 참전한다.

MS 리서치는 자사 AI 모델 '파이' 시리즈 모델을 활용한 시각언어행동(VLA) 모델을 기반으로 자사 첫 번째 로보틱스 모델 '로-알파'(Rho-alpha, ρα)를 개발했다고 21일(현지시간) 밝혔다.

로-알파는 자연어 명령을 통해 로봇이 '양손 조작'을 수행할 수 있도록 신호를 변환한다. 예컨대 “빨간색 전선을 당겨 빼세요” ““위쪽 스위치를 켜세요”와 같은 명령어를 이해하고 행동으로 옮긴다. 시각 정보를 인식해 행동으로 옮기는 VLA 모델을 활용했다.

MS는 인지·학습 모달리티의 기존 VLA 모델을 넘어 '촉각 센싱'을 새롭게 접목했다. MS는 이를 VLA+로 명명했다. 시각 외 새로운 감각을 깨친 것으로, 더욱 정교한 행동 제어가 가능할 것으로 기대된다. MS는 힘(force) 등 추가적인 센싱 모달리티 확장을 위한 기술 고도화를 하고 있다.

MS 리서치는 자사 AI 모델 '파이' 시리즈 모델을 활용한 시각언어행동(VLA) 모델을 기반으로 자사 첫 번째 로보틱스 모델 '로-알파'(Rho-alpha, ρα)를 개발했다고 21일(현지시간) 밝혔다.

로-알파의 촉각 인지 행동 기술은 실제 로봇의 궤적 데이터와 시뮬레이션 작업, 웹 규모 시각 질의응답 데이터 공동 학습으로 구현됐다. 특히 엔비디아 로봇 시뮬레이션 플랫폼 '아이작 심'을 활용해 합성 데이터를 생성, 실제 시연 데이터셋과 결합했다.

애슐리 로렌스 MS 리서치 액셀러레이터 부사장은 “피지컬 AI가 로보틱스를 재정의하고 있다”며 “로봇이 복잡하고 예측 불가능한 환경에서 인지·추론·행동할 수 있도록 지원한다”고 했다.

현대인 기자 modernman@etnews.com

Copyright © 전자신문. 무단전재 및 재배포 금지.