인간은 언어를 어떻게 배울까…AI에 아기처럼 말 가르쳤더니

서희원 2024. 2. 11. 08:24
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

6개월 난 어린 아기의 눈과 귀를 통해 들어오는 정보만으로 학습된 인공지능(AI) 모델이 나왔다.

브랜던 레이크 교수가 이끄는 미국 뉴욕대학교 연구팀은 호주에 사는 아기 '샘'(가명)의 머리에 카메라를 부착하고 약 1년 반 동안 수집한 영상 및 음성 데이터로 학습시킨 AI 시스템을 개발해 1일(현지시간) 국제학술지 '사이언스'에 발표했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

헤드캠 카메라를 쓰고 있는 호주 아기 샘(가명). 사진=뉴욕대학교 AI 연구원 와이 킨 봉/네이처 캡처
AI에 학습에 사용된 아기 시선의 데이터. 사진=파퓰러 사이언스/뉴욕대학교 연구팀

6개월 난 어린 아기의 눈과 귀를 통해 들어오는 정보만으로 학습된 인공지능(AI) 모델이 나왔다. 이를 통해 인간 언어 학습의 비밀이 풀릴 지 기대감이 쏠린다.

브랜던 레이크 교수가 이끄는 미국 뉴욕대학교 연구팀은 호주에 사는 아기 '샘'(가명)의 머리에 카메라를 부착하고 약 1년 반 동안 수집한 영상 및 음성 데이터로 학습시킨 AI 시스템을 개발해 1일(현지시간) 국제학술지 '사이언스'에 발표했다.

인간은 두 살 때까지 약 300단어를 배우고, 3살이 넘어가면 자연스러운 의사소통이 가능해진다. 반면 GPT-4와 같은 거대 언어 모델(LLM)이 특정 언어를 배우기 위해서는 수백만개 이상의 대량의 데이터를 쏟아부어야 훈련이 가능하다. 300개 내외 단어로 학습이 가능한 인간에 비해 비효율적인 것이다.

이에 뉴욕대 연구팀은 사람의 아기가 실제 접하는 데이터를 통해 AI를 개발해 제한된 데이터로 효율적이게 언어를 학습할 방법을 모색하기로 했다.

연구팀은 샘이 생후 6개월 때부터 2살 생일때까지 헤드캠을 달고 매주 2차례 1시간씩(깨어 있는 시간의 1%에 해당) 영상과 음성 데이터 총 61시간 분량을 수집했다.

연구원들은 샘이 평소 말하고, 듣고, 보는 단어와 사물을 바탕으로 AI 신경망을 학습시켰다. 샘은 놀고, 읽고, 먹는 등 활동에서 총 25만개 이상의 단어와 이미지 데이터에 노출됐다.

연구팀은 이렇게 수집한 정보를 대조학습 기술을 활용해 AI 모델에 학습시켰다. 아기가 접하는 시각과 음성 정보를 연관시키는 방식이다. 대화에서 등장한 단어들이 실제 아기가 보거나 접하고 있는 사물과 관련 있을 가능성이 높기 때문이다.

해당 방식으로 학습시킨 AI에게 4개 단어를 제시하고 이와 연관된 이미지를 찾도록 한 결과, AI는 62%의 정확도로 단어와 이미지를 연결 지을 수 있었다. 연구팀이 예상한 25%의 정확도를 훨씬 뛰어넘는 결과다.

연구를 이끈 캘리포니아 대학교의 인지과학자 헤더 보르트펠드는 “언어 학습 과정이 이처럼 '특별한' 매커니즘이 필요하지 않음을 보여주는 가장 강력한 사례 중 하나”라고 말했다.

또한 실제 언어 학습이 AI가 경험한 것보다 훨씬 풍부하고 다양하다며, 실제 아기의 삶에서 상호 작용을 경험할 수 없기 때문에 학습에 한계가 있다고 봤다. 예를 들어 유아기 초기에 학습되는 '손'이라는 단어를, AI는 배우기 어려워했다는 것이다.

전자신문인터넷 서희원 기자 shw@etnews.com

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?