언어 능력 상실한 사지마비 환자, AI 덕에 18년 만에 목소리 찾았다

(사진=UC 버클리)

뇌졸중으로 언어 능력을 상실한 사지마비 환자가 18년 만에 목소리를 통해 의사소통을 할 수 있게 됐다. 환자 뇌에 이식한 뇌-컴퓨터 인터페이스(BCI‧Brain-Computer Interface) 전극으로 생각을 포착해 인공지능(AI)으로 해석하는 장치가 개발됐기 때문이다.

미국 버클리 캘리포니아대(UC 버클리)와 미국 샌프란시스코 캘리포니아대 연구진은 마비 환자가 음성으로 소통할 수 있는 방법을 찾았으며, BCI 분야에서 획기적인 진전을 이뤘다고 발표했다.

연구진은 뇌의 언어활동 신호를 AI로 해석하고 실시간으로 음성으로 변환하는 장치를 개발했다고 최근 네이처 신경과학을 통해 밝혔다.

이 연구는 국립보건원 산하 국립청각장애연구소(NIDCD)의 지원을 받아 수행됐다. 연구진은 "언어 마비를 겪는 사람들의 삶의 질을 개선하는 데 엄청난 잠재력이 있다"라고 했다.

연구진은 18년 전 뇌졸중으로 사지가 마비되고, 언어 능력을 상실한 47세 여성 사지마비 환자의 뇌에 BCI 장치를 이식했다.

연구진은 앞서 뇌 신호를 읽는 장치를 개발했으나, 사용자의 생각과 컴퓨터 음성 출력 사이에 수 초간의 지연이 발생해 자연스러운 의사소통이 어려웠다.

연구진은 이번에 뇌 활동 신호를 해석하는 AI 알고리즘을 만들고, 사지마비 환자에게 문장을 말하는 생각을 하도록 요청했다. 약 1024개 단어가 포함된 문장이 사용됐다.

이후 연구진은 뇌 활동 신호를 기록했다. 예를 들어 "안녕, 잘 지내?"라는 문구를 보여주고, 그 문장을 조용히 말하도록 했다.

(사진=UC 버클리)

이 과정에서 발생하는 신호를 수집해 연구진은 AI 알고리즘으로 훈련시켰다. 그 결과 환자가 생각한 문장을 거의 실시간으로 읽어내고 음성으로 출력하는 데 성공했다.

목소리는 환자가 언어 능력을 상실하기 전 녹음된 음성으로 재현됐다. 훈련 데이터셋에 포함되지 않은 단어도 인식해 음성으로 구현할 수 있었다.

연구진은 AI가 음성을 더 빠르게 생성할 수 있도록 처리 속도를 높이고, 출력 음성을 더욱 자연스럽게 만드는 방법을 지속 연구할 계획이다.

연구진은 "최신 AI 발전으로 가까운 미래에 실제 세계에서 실용적인 사용을 위한 BCI가 크게 가속화되고 있다는 것은 흥미로운 일이다"라고 강조했다.

AI포스트(AIPOST) 진광성 기자

■ 보도자료 및 광고, 비즈니스 협업 문의 aipostkorea@naver.com

Copyright © AI포스트(AIPOST)