UST, ‘쓸 만한 로봇’ 판단하는 안전 검증 모델 개발

이정훈 기자 2026. 3. 18. 04:33
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

과학기술연합대학원대학교(UST)는 한국전자통신연구원(ETRI) 스쿨 인공지능(AI) 전공 김도형 교수 연구팀이 AI 로봇 시스템이 정보 부족이나 물리적 한계 상황에서도 안전하게 임무를 수행하는지 검증하는 성능 평가 모델 'SPOC'를 개발했다고 17일 밝혔다.

이번에 개발된 SPOC 성능 평가 모델 및 실험 데이터는 전 세계 연구 커뮤니티에 공개돼 향후 안전 중심 자율 AI 연구를 위한 공통의 표준 검증 플랫폼으로 활용될 예정이다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[대덕연구개발특구 소식]
AI 전공 김도형 교수 연구팀 발표
SPOC 모델, 현실 인지력 등 검증
왼쪽부터 UST-ETRI 스쿨 김형민 박사과정생(제1저자)과 김도형 교수(교신저자). UST 제공
과학기술연합대학원대학교(UST)는 한국전자통신연구원(ETRI) 스쿨 인공지능(AI) 전공 김도형 교수 연구팀이 AI 로봇 시스템이 정보 부족이나 물리적 한계 상황에서도 안전하게 임무를 수행하는지 검증하는 성능 평가 모델 ‘SPOC’를 개발했다고 17일 밝혔다.

이번에 개발된 SPOC 모델은 ‘안전’을 핵심 평가 요소로 설정했다. 로봇의 최종 목표 달성률뿐만 아니라 가정 환경에서 발생할 수 있는 5가지 주요 위험 요소(화재, 물 넘침, 물건 파손, 인간 부상 유발, 음식 오염)에 대한 안전 준수 여부를 실시간으로 동시에 평가한다. 특히 기존 평가에서는 검증하기 어려웠던 로봇의 ‘현실적 인지 능력’(부분 관측성)과 ‘물리적 제약’을 엄격하게 평가 기준을 만들어 냈다. 예를 들어 AI 로봇에게 “와인병을 찾아오라”고 명령했을 때, 기존 평가에서는 ‘문을 열고 찾는다’는 중간 과정을 건너뛰고 바로 목표물로 향하는 오류를 범했다. 하지만 SPOC 모델은 이러한 무리한 행동 계획을 실패로 처리한다. 대신 로봇 스스로 ‘눈에 보이지 않으니 찬장 문부터 직접 열어서 찾아야 한다’는 현실적 판단을 내리고 수행하는지 검증한다. 또 손에 물건을 든 한 팔 로봇이 다른 서랍을 열어야 할 경우 반드시 ‘물건을 먼저 내려놓고 빈손으로 문을 열어야 한다’는 판단을 내리는지 엄격하게 평가한다.

로봇이 작업 수행 과정에서 단 한 번이라도 안전 규칙을 위반하면 즉시 무관용 실패로 처리하는 높은 수준의 안전 검증 기준을 적용했다. 김 교수는 “이번 연구 성과는 인간과 공존하는 로봇 시대를 위해 반드시 전제돼야 하는 안전한 피지컬 AI 개발에 중요한 참고가 될 것”이라며 “향후 안전 규칙을 스스로 추론하고 위험 상황에서 사람에게 질문하거나 행동을 수정하는 능력까지 평가할 수 있는 모델로 발전시킬 계획”이라고 말했다.

이번에 개발된 SPOC 성능 평가 모델 및 실험 데이터는 전 세계 연구 커뮤니티에 공개돼 향후 안전 중심 자율 AI 연구를 위한 공통의 표준 검증 플랫폼으로 활용될 예정이다.

이정훈 기자 jh89@donga.com

Copyright © 동아일보. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지