사람이 생각하면, 로봇이 말 대신 하는 기술 개발됐다… 어느 수준일까?

오상훈 기자 2024. 7. 17. 22:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

사람의 뇌에 이식된 전극으로부터 전기 신호를 받은 컴퓨터가 사람이 상상하는 음절을 대신 말하는 기술이 개발됐다.

연구팀은 수술 도중 환자의 뇌에 전극을 이식했고 회복한 그에게 'a'와 'e' 두 음절을 반복적으로 소리 내 말하도록 지시했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

연구팀이 뇌-컴퓨터 인터페이스를 활용해 연구를 진행하는 모습./사진=Neurosurgery 제공
사람의 뇌에 이식된 전극으로부터 전기 신호를 받은 컴퓨터가 사람이 상상하는 음절을 대신 말하는 기술이 개발됐다. 더 발전하면 루게릭병 등으로 말하는 능력을 잃어가는 환자들에게 큰 도움 될 것으로 보인다.

이스라엘 텔아비브대 연구팀은 사람이 음절을 떠올리면 기계가 이를 대신 말하는 방법을 찾기 위한 연구를 진행했다. 이를 위해 뇌와 컴퓨터를 연결해 상호작용이 가능하도록 하는 ‘뇌-컴퓨터 인터페이스’를 활용했다. 음절을 발음하거나 떠올릴 때 뇌에서 발생하는 전기 신호를 파악하려면 뇌의 깊숙한 곳에 전극을 심어야 한다. 연구팀은 신경외과적 수술을 앞둔 환자를 한 명 모집해 연구를 진행했다.

연구팀은 수술 도중 환자의 뇌에 전극을 이식했고 회복한 그에게 ‘a’와 ‘e’ 두 음절을 반복적으로 소리 내 말하도록 지시했다. 환자가 음절을 발음할 때 뇌 활동을 기록한 연구팀은 딥러닝 과 머신러닝을 사용해 인공지능 모델을 훈련시켰다. 그 결과, 인공지능은 환자가 a나 e를 떠올릴 때 활성화되는 특정 뇌 영역을 식별할 수 있게 됐다.

이어서 연구팀은 환자에게 자신이 a와 e를 발음한다는 걸 상상하라고 지시했다. 그러자 두 음절을 발음할 때 활성화되는 뇌 영역을 인식한 컴퓨터가 미리 녹음된 a 또는 e 음절을 재생했다. 정확도는 약 85%로 나타났다.

연구팀에 따르면 이번 연구는 음절을 발음할 때 활성화되는 개인의 뇌 영역을 식별하고, 이를 컴퓨터로 발음하게 만든 최초의 연구다.

연구의 저자 아리엘 탱커스 박사는 “우리의 목표는 컴퓨터가 완전한 어절을 발음할 수 있도록 하는 것”이라며 “우리 연구는 언어 생성을 위한 뇌의 기능을 일부 대체할 수 있는 ‘뇌-컴퓨터 인터페이스’를 개발하는 데 있어 중요한 단계로, 발성과 관련된 근육이 완전히 마비된 사람에게 소통의 기회를 줄 수 있을 것”이라고 말했다.

이 연구 결과는 국제 학술지 ‘신경외과(Neurosurgery)’에 최근 게재됐다.

Copyright © 헬스조선. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?