표정·몸짓·체온·심장박동만으로 인간의 감정 계산할 수 있을까

한겨레 2023. 12. 30. 11:05
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[한겨레S] 이관수의 인공지능 열전 감성 컴퓨팅
인간학습에 감정 개입 가능성
화상인식AI 개발 과정에서 주목
의료·마케팅 등 광범위 활용
동성애자 판별 등 오용 사례도
엠아이티 미디어랩이 화상인식 기술을 설명하는 화면. 엠아이티 미디어랩 누리집 동영상 갈무리

2016년 3월 네덜란드의 인공지능 업체 사이트코프는 인공지능 감정인식 기술을 이용해서 항공권·호텔 예약 업체인 스카이스캐너가 우월한 사용자 경험을 제공하기 시작했다고 자랑했다. 후일 알려진 바로는 스카이스캐너의 러시아용 웹사이트에 접속한 사람의 얼굴 사진을 분류해서, ‘슬픈 표정’으로 판단되면 놀이공원을, ‘화난 표정’으로 판단되면 눈이 쌓여 풍경이 좋은 여행지를 추천하는 식이었다.이 실험은 감정 인공지능의 실제 응용 사례로 현재도 계속 거론되지만, 과연 실험이 얼마나 계속됐는지, 실제로 유용한 성과를 거뒀는지는 발표된 바가 없다. 성공적이었다면 지금쯤 스카이스캐너 웹사이트에서 유사 기능이라도 볼 수 있으련만 자취를 찾을 수 없다.

감성적이면서 효과적인

스카이스캐너의 실험은 곧 30년째로 접어드는 ‘감성 컴퓨팅’ 연구의 성과와 한계를 보여준다. 전통적으로 이성과 감성을 대별해온 탓에 20세기 중반의 인공지능 선구자들은 감정을 ‘정상적’인 인공지능의 범위에서 아예 제외하거나, 먼 장래에나 손을 대볼 후순위 연구 주제로 미뤄놓았다. 카네기멜런대학의 허버트 사이먼이 거짓말하는 것보다 감정을 속이는 것이 훨씬 힘들다는 점을 근거로, 어쩌면 감정은 사회적 동물들이 상호 신뢰를 구축하는 토대로 진화한 것일 수도 있다는 추측을 내놓은 정도가 고작이었다.

이런 상태가 바뀌기 시작한 것은 1996년 매사추세츠공과대학(MIT) 미디어랩의 젊은 여성 교수 로절린드 피카드가 ‘감성 컴퓨팅’이란 보고서를 회람하고 다음해 동명의 책을 출판하면서부터였다. 피카드는 컴퓨터와 인공지능이 우리 삶에 제대로 기여하려면 △인간의 감정을 탐지하는 능력 △인간이 인식할 수 있는 형태의 감정표현을 사용할 수 있는 능력 △감정을 “느낄”(feel) 수 있는 능력이 필요하다고 주장했다.

화상인식 인공지능 개발자로서 피카드는 인공지능이 어느 정도라도 사람처럼 인식과제의 내용이나 주목할 대상을 실시간으로 변경하는 기능을 구현할 길을 찾다가, 사람의 인식과 학습에 감정이 깊숙이 개입하는 듯하다는 신경과학자들의 연구결과를 접했다. 실마리는 찾았지만, 여성 엔지니어가 감정과 관련된 연구를 한다면 웃음거리가 될 것을 우려했기 때문에 일부러 ‘감성(affective) 컴퓨팅’이란 신조어를 만들었다. 당시 미디어랩의 소장은 이 말이 ‘효과적인(effective) 컴퓨팅’으로 잘못 들리기 쉽다는 점을 높이 평가했다.

피카드는 표정 사진을 분류하는 인공지능을 개발해 측정과 분류 문제를 해소하려는 연구부터 시작했다. 기존의 감정 연구들이 나름 설득력이 있지만, 객관적 근거는 부족한 상태였기 때문이다. 예컨대 1970년대 이래 가장 유명한 6가지 분류(기쁨·공포·혐오·분노·놀람·슬픔)는 심리학자인 폴 에크먼이 6가지 감정을 ‘보기’로 제시하고, 표정 사진들마다 그 사진을 가장 잘 묘사하는 감정을 하나 고르는 게임을 해보니, 북미 사람들이나 뉴기니 사람들이나 결과에 큰 차이가 없었다는 실험을 근거로 삼았다. 그런데 표정 사진에 나타난 감정을 주관식으로 묘사하게 하면 판이하게 다른 결과가 나오기도 하고, ‘즐거움’이나 ‘좋아함’이 빠진 명확한 이유도 없었다. 다른 분류체계나 이론들도 객관적인 데이터가 없는 것은 마찬가지였다.

감정 연구가 어엿한 연구 분야로 인정받기까지는 거의 10년이 걸렸다. 수집·분류하는 데이터도 표정뿐만 아니라 자세와 몸짓, 눈동자의 움직임으로 확대되더니, 피부의 전기전도도·체온·혈압·심장박동·뇌파 등등으로 뻗어나갔다. 미디어랩은 피카드팀이 신체 신호를 실시간으로 수집하기 위해 개발한 센서기술들을 토대로 의료용 웨어러블 컴퓨팅 회사를 만들기도 했다.

감성 컴퓨팅을 설명하고 있는 로절린드 피카드 교수. 엠아이티 미디어랩 누리집 동영상 갈무리

☞한겨레S 뉴스레터 구독하기. 검색창에 ‘한겨레 뉴스레터’를 쳐보세요.

☞한겨레신문 정기구독. 검색창에 ‘한겨레 하니누리’를 쳐보세요.

범죄자가 될 관상인가

감성 컴퓨팅 연구는 때마침 발달한 인지과학의 연구결과들과 어우러져 갖가지 통찰과 성과 그리고 오용을 낳았다. 통념상 감정이라고 여기는 것들에는 문화적으로 학습된 것부터 신경전달물질이 좌우하는 것까지 다양한 층위에서 발생하는 현상들이 뒤섞여 있다. 에크먼의 제자들이 감정 컴퓨팅 기법을 채용해서 내놓은 연구들을 보면, 표정·말·감탄사 등등 표현 채널마다 판독할 수 있는 ‘감정’들은 각각 수십종에 달한다. 그리고 일상적으로 거론하는 감정은 그런 ‘감정’들이 엮여 시시각각 변화하는 것에 대응할 가능성이 크다. 이는 개개인의 감정을 세밀하게 읽어내기란 지극히 어렵고, 어쩌면 불가능에 가까울 수도 있음을 함축한다.

반면에 에크먼식으로 얼굴 표정을 미리 설정해둔 대여섯 종으로 대략 읽어내는 일은 어렵지 않게 됐다. 기술적 정확도를 양보하면 실시간으로도 분류 가능하다. 덕분에 게임이나 광고·영화·강연·매장 등등을 사람들이 어떻게 느끼는지를 나름 가늠해볼 수 있게 되었다. 사이트코프나 피카드가 창업에 관여한 어펙티바는 그런 서비스를 제공한다. 또 스탠퍼드 의대에서는 사람의 표정을 6가지 ‘감정’으로 분류하는 인공지능을 구글글래스에 탑재해 자폐아 치료에 활용하는 임상연구도 진행하고 있다. 임상연구 종료까지는 몇년을 더 기다려야겠지만, 행동치료에 참여한 아이들은 대면한 사람의 감정을 구글글래스가 이모티콘으로 시야에 띄워주는 것만으로도 치료 과정에 훨씬 잘 적응했다고 한다.

어처구니없는 오용 사례도 등장했다. 2017년 스탠퍼드 경영대학원의 미할 코신스키는 프로필 사진만으로 동성애자 여부를 가려내는 인공지능을 발표했다. 미국 유명 데이트 사이트에 공개된 프로필 사진 3만5천장을 분석한 결과라고 했다. 다른 엔지니어와 대학원생들이 진행한 재현 연구들을 보면, 코신스키의 ‘연구’는 연구부정이라고 단언할 수는 없어도 최소한 과대포장임은 분명했다. 동전 던지기보다는 정확하지만, 코신스키가 인위적으로 설정한 조건 아래에서도 판정 오류가 너무 많았다. 화상인식만으로 범죄자 여부를 판정하거나 신장위구르 지역에서 ‘테러분자’를 색출한다는 중국의 ‘성과’ 또한 의도가 자아내는 공포와 별도로 기술적으로 제대로 작동할 리가 없다.

감성 컴퓨팅과 감정 인공지능 기술은 1996년에 꿈꿨던 단계에 온전히 도달하기에는 갈 길이 멀다. 그럼에도 유용하거나 바람직한 성과를 이미 낳았고, 지금 당장 더 거둘 수 있다. 개개인의 내면을 읽고 통제하겠다는 실현되지 않은 욕망을 버리고, 누군가가 사람들에게 갑질을 하지나 않는지, 어떤 환경이 사람들을 더 활기차게 만드는지에 관심을 기울인다면 말이다.

과학저술가

 

서울대학교 물리학과를 졸업하고 과학사 및 과학철학 협동과정에서 박사 학위를 취득했다. 가톨릭대학교 교양교육원 초빙교수를 거쳐 현재 동국대학교 다르마칼리지에 재직 중이다.

Copyright © 한겨레. All rights reserved. 무단 전재, 재배포 및 크롤링 금지.

이 기사에 대해 어떻게 생각하시나요?