아기의 눈으로 본 AI, 인간의 언어 능력 비밀 풀어낸다

이병철 기자 2024. 2. 2. 09:43
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

어린 아기의 시선으로 수집한 데이터를 학습한 인공지능(AI) 모델이 개발됐다.

인간이 언어를 배우는 데 선천적인 능력이 필요한지 여부에 대한 논쟁의 종지부를 찍을 수 있을 것이라는 기대가 나온다.

미국 뉴욕대 연구진은 1일(현지 시각) 어린 아기가 보고 듣는 데이터로 '유아 시각 대조학습(CVCL)' AI 모델을 개발했다고 밝혔다.

이는 4억개의 데이터를 학습한 AI 모델과 비슷한 수준이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

미 뉴욕대, 생후 6개월~2세 음성, 시각 데이터 수집
사전 학습 없어도 예상보다 언어 정확도 높아
미국 뉴욕대 연구진이 어린아이의 시선과 음성 데이터를 이용한 AI 모델을 개발했다. 이들은 호주에 사는 아기 샘이 생후 6개월부터 2세때까지 자라는 동안 카메라를 붙여 데이터를 수집했다./웨이킨봉, 브렌든 레이크

어린 아기의 시선으로 수집한 데이터를 학습한 인공지능(AI) 모델이 개발됐다. 인간이 언어를 배우는 데 선천적인 능력이 필요한지 여부에 대한 논쟁의 종지부를 찍을 수 있을 것이라는 기대가 나온다.

미국 뉴욕대 연구진은 1일(현지 시각) 어린 아기가 보고 듣는 데이터로 ‘유아 시각 대조학습(CVCL)’ AI 모델을 개발했다고 밝혔다.

연구진은 호주에 사는 ‘샘’이라는 아기에게 카메라를 붙여 데이터를 수집했다. 생후 6개월부터 2세때까지 매주 2차례에 걸쳐 1시간씩 카메라를 착용해 총 61시간 분량의 영상, 음성 데이터를 모았다. 샘은 놀거나 책을 보고 식사를 하는 모든 과정을 카메라로 담아냈다.

이렇게 수집한 데이터는 AI에게 학습시켰다. 영상과 음성 데이터는 대조학습을 통해 서로 연관성을 분석했다. 어린 아이가 보는 단어와 물체 사이의 연관성을 바탕으로 관계를 찾아내는 데 유용한 방식이다.

연구진은 이렇게 개발한 AI 모델에 CVCL이라는 이름을 붙였다. 이후에는 CVCL에 4개의 단어를 제시하고 그에 맞는 이미지를 찾도록 했다. 이 검사는 어린아이의 언어능력을 평가하는 데도 사용하는 방식이다.

그 결과, CVCL은 62%의 정확도로 단어와 이미지를 연결하는 것으로 나타났다. 연구진이 예상했던 정확도 25%보다 2.5배 가량 높은 수치다. 이는 4억개의 데이터를 학습한 AI 모델과 비슷한 수준이다.

특히 사과, 개처럼 일부 단어에서는 기존 AI 모델보다 뛰어난 성능을 보이기도 했다. 반면 장난감처럼 형태가 다양한 이미지에 대해서는 정확도가 상대적으로 떨어지는 것으로 나타났다.

연구진은 CVCL을 이용해 인간의 언어 습득 과정을 찾을 수 있을 것으로 기대하고 있다. 일부 과학자들은 인간에게 선천적인 언어 능력이 있어야 언어를 습득할 수 있을 것이라고 주장하고 있다. 반면 어린 시절 보고 들은 내용 만을 바탕으로 언어를 배운다는 과학자들도 있다. 과학계는 정확한 인간의 언어 습득 과정을 아직 찾지 못하고 있다.

연구진은 인간의 언어 습득이 선천적인 능력과 별개로 성장 과정에서 발생한다는 데 힘을 실어줬다. CVCL이 사전 지식 학습 없이 어린 아이가 보고 들은 데이터만으로도 예상보다 높은 정확도를 보였기 때문이다.

헤더 보르트펠트 미국 캘리포니아대 교수는 “인간의 언어 습득이 특별한 능력을 요구하지 않는다는 가장 강력한 실험 결과”라고 평가했다.

다만 행동을 통한 언어 학습은 AI로 재현할 수 없었던 만큼 인간의 언어 습득 과정을 결론내리기는 어렵다는 평가도 나온다. 실제로 CVCL은 ‘손’이라는 단어를 배우는 데 실제 아기보다 많은 데이터가 필요했다. 아기는 자신의 손을 통해 여러 행동을 하면서 손이라는 단어를 이해했으나 AI는 이같은 경험이 불가능하기 때문이다.

웨이킨봉 미국 뉴욕대 연구원은 “아기들은 자신의 손을 갖고 있고 손을 통해 많은 경험을 한다”며 “우리가 개발한 AI에서는 재현하지 못한 중요한 언어 학습 요소다”라고 말했다.

연구 결과는 이날 국제 학술지 ‘사이언스’에 실렸다.

참고자료

Science(2024), DOI: https://doi.org/10.1126/science.adi1374

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?