로봇이 나를 따라 웃네, 표정 짓는 로봇의 탄생

곽노필 2021. 6. 1. 10:16
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

기쁨, 슬픔 등 6가지 감정 표현 가능..인간-로봇 신뢰 제고 기대
로봇 에바가 사람의 표정을 따라 미소를 짓고 있다. 컬럼비아공대 제공

딱딱하게 굳어 있는 차가운 금속성 로봇의 얼굴에 표정이 더해지면 어떤 변화가 일어날까?

미국 컬럼비아공대 연구진이 5년간의 연구 개발 끝에 사람을 따라 여러 가지 표정을 지을 수 있는 로봇을 선보였다. 앞으로 요양시설이나 공장 등 사람과 협업하는 로봇이 필요한 곳에서 로봇에 대한 인간의 신뢰감을 높일 수 있는 기술로 기대된다.

연구진은 30일(현지시각) 국제전기전자공학회(IEEE)가 온라인으로 연 ‘국제로봇자동화학술회의(ICRA)'에서 사람의 표정을 따라 할 줄 아는 상반신 로봇 `에바'(EVA)를 발표했다.

평소 무심코 지나치던 것이 새삼스럽게 다가오거나 궁금증이 생겼을 때 문득 혁신적인 개발 영감이 떠오르는 경우가 있다. 이번에 선보인 표정 로봇 아이디어가 이런 사례에 속한다. 로봇 개발 작업을 이끈 호드 립슨 교수는 대학 보도자료에서 “몇년 전 학생들과 함께 우리 실험실에 있는 로봇들이 플라스틱 퉁방울 눈으로 우리를 응시하고 있다는 사실을 깨달았을 때 에바에 대한 아이디어가 시작됐다”고 말했다.

립슨 교수는 식료품가게에서도 재고정리용 로봇이 명찰을 착용하거나 뜨개질로 만든 모자를 쓴 모습을 목격했다. 그는 “로봇에 눈을 달아주거나 이름을 지어준다는 건 사람들이 로봇 동료를 사람처럼 대하는 것을 시사한다”며 이런 생각이 사람의 얼굴 표정을 표현할 수 있는 로봇 개발에 뛰어드는 계기가 됐다고 말했다.

표정 로봇의 하드웨어 구성.

3D프린팅 기술로 복잡한 부품들 두개골 속에 ‘쏙’

말은 쉽지만 표정 있는 로봇 얼굴을 만드는 것은 공학적으로 어려운 과제였다. 로봇의 표면 재질은 단단한 금속이나 플라스틱인데다, 회로와 센서, 모터 등의 부품은 무겁고 덩치도 커서 사람의 세세한 표정을 구현하는 데 적합하지 않았다.

연구진은 하드웨어부터 개발 작업을 시작했다. 우선 행위예술가 집단 블루맨그룹의 얼굴을 모델로 에바의 흉상을 제작했다. 블루맨그룹은 파란색 얼굴 분장을 한 채 말 없이 표정과 행동만으로 퍼포먼스를 하는 것으로 유명한 3인조 그룹이다.

연구진은 로봇이 다양한 표정을 지을 수 있도록 부드러운 얼굴 피부와 골격에 42개의 인공근육, 즉 케이블과 모터를 부착했다. 연구진은 케이블을 이리저리 당겨 보면서 여러 표정을 만들 수 있음을 확인했다. 이 장치로 에바가 표현할 수 있는 기본 표정은 분노, 혐오, 공포, 기쁨, 슬픔, 놀람 6가지였다.

하드웨어 개발에서 가장 어려웠던 과제는 표정 자체보다 표정을 만드는 장치들을 로봇 두개골 안에 들어갈 수 있는 소형 시스템으로 설계하고 제작하는 것이었다. 연구진은 3D 프린팅 기술을 활용한 다양한 형태의 부품으로, 이 문제를 해결했다.

로봇 에바가 카메라 속의 자기 얼굴을 보고 표정 짓기를 연습하는 장면.

딥러닝 신경망으로 표정 학습…원시적 자아상 획득

그 다음 단계는 어떤 표정을 지을지 이끌어주는 인공지능 프로그램을 개발하는 것이었다.

연구진은 몇개의 딥러닝 신경망으로 에바의 두뇌를 만들었다. 로봇의 두뇌는 두가지 능력을 습득하는 데 필요했다. 첫째는 자신의 인공근육을 쓰는 법을 배우는 것이다. 둘째는 사람의 얼굴을 읽고 어떤 표정을 지을지 파악하는 것이다.

딥러닝을 통한 학습은 2단계로 진행됐다. 연구진은 우선 무작위로 에바가 짓는 표정을 수시간 동안 촬영했다. 그런 다음 이를 에바에 보여주고, 자기 얼굴 모습에 맞는 근육 동작을 하도록 학습시켰다. 이를 통해 에바는 원시적인 자아상(self-image)을 갖게 됐다고 연구진은 밝혔다.

로봇이 따라 한 다양한 표정들.

연구진은 이어 두번째 신경망을 이용해 로봇의 얼굴 이미지와 비디오 카메라가 포착한 사람 얼굴 이미지를 일치시키도록 했다. 몇차례의 수정, 반복 연습 과정을 거친 뒤 에바는 카메라를 통해 사람 얼굴 표정을 읽는 법을 습득하고, 사람 표정을 따라할 수 있게 됐다.

에바의 표정 짓기는 아직은 단순 모방 단계이다. 따라서 사람들이 표정으로 서로 소통하는 것과는 거리가 멀다. 그러나 이런 정도의 능력도 인간-로봇의 협업에는 긍정적 영향을 끼칠 수 있다. 립슨 교수는 자신의 경험담을 들려줬다. “어느날 내 일에 몰두하던 중 에바가 갑자기 친근하고 환한 미소를 나에게 보냈다. 그 미소가 순전히 기계적인 동작이라는 걸 알고 있었지만, 나도 모르게 반사적으로 그 미소에 웃음으로 답하고 있다는 걸 알았다.”

연구진은 언젠가는 로봇 스스로 표정 짓는 것도 가능할 것으로 기대한다. 얼굴 표정뿐 아니라 사람의 다양한 몸짓 언어를 읽고 이에 반응할 줄 아는 로봇이 나온다면 직장이나 병원, 학교, 가정 등 다양한 생활 공간에서 매우 유용하게 쓰일 수 있을 것이다. 립슨 교수는 “클라우드 기반의 챗봇이나 스마트홈 스피커와 감정을 교류하는 데는 한계가 있다”며 “사람의 뇌는 물리적 실체를 갖고 있는 로봇에 더 잘 반응한다”고 말했다. 표정 짓는 로봇이 대화 가능한 로봇과 결합할 경우, 인간-로봇의 관계는 완전히 새로운 차원으로 이동할지도 모를 일이다.

곽노필 선임기자 nopil@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?