마비 환자 조종능력, 인공지능 붙였더니 4배 향상

곽노필 기자 2025. 9. 3. 09:36
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

곽노필의 미래창
웨어러블 뇌-컴퓨터 인터페이스와 결합
컴퓨터·로봇팔 조작 더 빠르고 정확해져
의도 추론해 돕는 부조종사 역할 ‘거뜬’
척수 손상으로 다리가 마비된 실험 참가자가 인공지능 결합 뇌-컴퓨터인터페이스(AI-BCI) 시스템을 사용해 지시대로 로봇팔로 블록을 집어서 옮기는 과제를 수행하고 있다. UCLA 제공

(☞한겨레 뉴스레터 H:730 구독하기. 검색창에 ‘한겨레 h730’을 쳐보세요.)

뇌파로 생각을 읽어내는 뇌-컴퓨터 인터페이스(BCI)에 인공지능을 결합시켜 마비 환자가 로봇팔이나 컴퓨터 커서를 움직이는 능력을 4배나 높일 수 있는 기술이 개발됐다.

뇌에 전극을 심지 않고 두피에서 뇌 신호를 감지하는 웨어러블(착용형) 장치에 이 기술을 적용할 경우, 칩 이식의 위험을 줄이면서 신호 감지 정확도를 높일 수 있을 것으로 기대된다.

미국 로스앤젤레스 캘리포니아대(UCLA) 연구진은 인공지능을 보조 조종사로 활용하는 착용형 인공지능-뇌컴퓨터인터페이스(AI-BCI) 시스템을 개발해 국제학술지 ‘네이처 머신 인텔리전스’(Nature Machine Intelligence)에 발표했다.

현재 수술을 이용해 뇌에 이식하는 칩은 뇌 신호를 파악하는 데는 유리하지만 이식 때 신경외과 수술에 따르는 위험이 크다는 문제가 있다. 이는 여전히 이 방식이 임상시험 단계를 벗어나지 못하는 이유 가운데 하나다. 반면 이식 수술 없이 두피에 센서를 부착하는 웨어러블 기기는 뇌 신호를 감지하는 데서 정확도가 떨어진다.

연구진은 두 가지 방식의 단점을 보완하는 방법으로 인공지능을 활용하기로 하고, 각 개인의 두피 센서에 감지된 신호를 읽어내는 맞춤형 알고리즘을 개발한 뒤, 이렇게 읽어낸 신호를 사용자의 의도에 맞게 실시간으로 해석하는 카메라 기반 인공지능 시스템과 결합시켰다.

기존 뇌-컴퓨터 인터페이스는 감지된 신경 신호만을 해독하지만 인공지능 부조종사는 과제의 구조(task structure), 과거의 움직임(historical movements), 컴퓨터 비전(computer vision, CV) 등 다양한 정보를 토대로 사용자의 목표를 추론해 정확한 동작을 할 수 있도록 해준다. 연구진은 이를 ‘공유 자율성’(shared autonomy)이라고 명명했다. 예컨대 컴퓨터 검색 엔진을 사용할 경우엔 검색어 입력 후 ‘검색’ 버튼을 선택하는 것이 목표일 가능성이 높다고 추론하고, 로봇팔로 컵을 잡는 경우엔 카메라와 과제 구조 지식을 통해 사용자가 컵을 잡고 마시려 한다는 것을 추론해 적절한 힘으로 컵을 잡고 입으로 가져가도록 돕는다.

인공지능이 불가능을 가능으로 바꿔

연구진은 운동 장애가 없는 실험참가자 3명과 하반신 마비 환자 1명을 포함해 총 4명의 참가자를 대상으로 두 가지 과제를 주면서 새 장치의 성능을 실험했다.

첫번째 과제는 컴퓨터 화면의 커서를 움직여 8개 표적에 맞춘 뒤 최소 0.5초 동안 고정하는 것, 두번째 과제는 로봇팔로 테이블 위의 블록 4개를 지정된 위치로 옮기는 것이었다.

실험 결과 참가자들은 마비 환자든 아니든 상관없이 인공지능의 도움을 받았을 때 두 과제를 훨씬 더 빠르고 정확하게 마쳤다.

시간 단축과 목표 성공 비율을 종합한 결과, 마비 환자가 인공지능 결합 시스템을 사용할 때 컴퓨터 커서를 목표 지점으로 옮기는 과제의 목표 달성률은 지능이 없는 시스템을 사용할 때보다 3.9배 높았다. 마비가 없는 사람의 경우엔 2.1배였다. 마비 환자의 경우, 목표물에 정확히 도달하는 데 걸리는 시간은 중앙값이 4.15초에서 0.05초로 크게 감소했다.

로봇팔 과제에선 인공지능의 도움을 받은 모든 참가자가 93~100%의 성공률을 보였다. 과제를 마치기까지 걸린 시간은 마비 환자가 6분32초, 건강한 사람이 2분16초였다. 마비환자는 인공지능의 도움을 받지 못할 때는 과제를 마치지 못했다. 인공지능이 ‘불가능’을 ‘가능’으로 바꿔준 셈이다.

연구를 이끈 조너선 카오 교수는 “인공지능으로 뇌-컴퓨터 인터페이스 시스템을 보완해 훨씬 덜 위험한 방법을 개발하는 것이 목표”라며 “궁극적으로 마비나 루게릭병 같은 운동 장애가 있는 사람들이 일상생활에서 어느 정도 독립성을 회복할 수 있는 인공지능 결합 뇌컴퓨터인터페이스를 개발할 계획”이라고 말했다.

연구진의 다음 목표는 로봇 팔을 더 빠르고 정밀하게 움직이는 것이다. 연구진은 더 큰 규모의 훈련 데이터를 추가하면 인공지능이 더 복잡한 작업을 처리할 수 있을 것으로 기대했다.

*논문 정보

Brain–computer interface control with artificial intelligence copilots. Nat Mach Intell (2025).

https://doi.org/10.1038/s42256-025-01090-y

곽노필 선임기자 nopil@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지