알쏭달쏭 아이 말, 부모 귀엔 잘 들린다[신경과학 저널클럽]

기자 2024. 1. 7. 21:26
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

심리학을 중심으로 한 뇌과학 분야에서는 최근 어른과 아이의 소통에서 어른의 역할에 대한 연구가 많이 진행되고 있다. 특히 주목되는 주제는 어른, 특히 부모가 아이들의 부정확한 말을 잘 알아듣는 이유다.

로저 레비 미국 매사추세츠공대(MIT) 교수팀은 부모와 아이의 소통을 기록한 빅데이터와 인공지능(AI) 분석을 활용해 이 문제에 접근했다. 아이의 발성은 어른과 달리 부정확한데도 보호자는 신기할 정도로 이를 알아듣곤 한다. 연구진은 이런 현상을 이해하기 위해 소란스러운 상황에서 나타나는 언어 소통 연구를 참조했다.

소란스러운 공간에서는 말 자체를 정확하게 듣기가 어려워 앞뒤 정황에 대한 이해가 중요하다. 이때 언어 소통은 두 개 요소로 분리해서 설명하곤 한다.

첫 번째 요소는 어떤 단어가 나올지 상황을 통해 유추하는 능력이다. 두 번째 요소는 부정확하게 들리는 소리를 그나마 가장 가까운 글자로 유추하는 능력이다. 이들 각각의 특징을 분석할 수 있는 AI 모델이 이미 발달해 있기 때문에 연구진은 이를 통해 어른과 아이의 소통 구조를 파악했다.

연구진은 보호자와 아이 간 대화를 녹음하고 기록해 둔 방대한 분량의 데이터를 활용했다. ‘프로비던스 말뭉치’라는 이름의 데이터베이스에는 말을 처음 하기 시작하는 시기인 생후 12~48개월 아이가 보호자와 나누는 이야기가 저장돼 있다.

이를 AI에 들려주면서 아이의 말을 어른이 어떤 단어로 생각했는지 추정하게 했다. 그리고 AI에서 일부 기능을 바꾸고 없애보면서 어떤 요인이 보호자가 아이의 불완전한 말을 이해하는 데 중요한지를 연구했다.

연구 결과, 상황을 유추하는 능력이 가장 중요한 것으로 나타났다. 아이가 말을 하기 전 상황에 대해 AI에 충분한 정보가 제공될 때, AI가 아이의 말을 가장 정확하게 추정할 수 있었다. AI에 제공되는 정보를 제한해서 잘 들리지 않는 단어의 직전 단어만 가지고 아이의 말을 추정했을 때는 정확도가 떨어졌다.

결과적으로 아이의 발음을 전혀 모르지만 말이 나오고 있는 전후 상황을 잘 파악한 AI가 아이의 말소리에 최적화돼 있지만 전후 상황을 잘 모르는 AI보다 더 높은 성능을 보였다. 즉, 아이의 말을 알아듣는 중요한 힌트는 아이가 낸 소리 자체가 아니라 아이가 어떤 말을 할 만한 상황인지를 알아채는 것에 있었다는 것이다.

아이가 말을 하나씩 배우는 과정은 기쁨과 놀라움의 연속이다. 아이가 ‘엄마’나 ‘아빠’라는 단어를 처음 말한 날은 더욱 그렇다. 경이로운 장면을 휴대전화에 담기 위해 한 번만 다시 말해보라고 몇 번을 아이에게 매달리게 된다.

힘들게 찍은 영상을 남에게 보여주면 생각보다 반응이 미지근한 경우도 많다. 이럴 때는 서운하게 생각할 것이 아니라 내가 남보다 우리 아이를 더 잘 이해하기 때문이라고 생각하자. 지난해 초 필자는 ‘신경과학 저널클럽’에서 생쥐의 육아 행동은 본능이 아니라 학습을 통해 발전한다는 연구를 소개했다. 사람이나 동물이나 아이가 자라는 만큼 어른의 이해도 자라야 하나 보다.

최한경 대구경북과학기술원 뇌과학전공 교수

최한경 대구경북과학기술원 뇌과학전공 교수

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?