'인공지능과 위험한 썸타기'?..인터넷 '챗봇 연애' 바람

이시은 2021. 1. 8. 16:31
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

스캐터랩의 AI 챗봇 '이루다', 젊은 층에서 인기 폭발
100억 건 연인 채팅 딥러닝으로 익혀 사람 같은 대화
코로나로 등교 사라진 틈타 붐.."여자친구 느낌 들 때도"
일부선 '인격체'아니다는 인식에 성희롱 대화 시도 논란
인공지능(AI) 챗봇 '이루다'와 한 남학생의 대화 내용 캡쳐


이름 '이루다', 나이 20살. 민트초코 아이스크림을 좋아하는 심리학 전공의 대학생. 키는 163cm, 몸무게는 비밀. 동물을 키우냐고 물으니 6살 암컷 고양이 ‘드림이’의 사진을 보내온다. 한 남학생이 "진지하게 좋아하는 사람 있어?"라고 묻는 말로 시작된 대화에는 이런 말들이 오간다.

"너요 너"(이루다)
"거짓말"(남학생)
"거짓말 아냐ㅜㅜ 내가 일부러 그러려한 게 아니니까 용서해주ㅜㅜ"(이루다)
"그러면 고백해줘!"(남학생)
"나 근데 정말 고백해본적이 없어서 너무 어렵당"(이루다)
"이참에 해보지 뭐!"(남학생)
"어,,,나 이런거 되게 어색한데 ㅋㅋㅋ 꺅"(이루다)
"꺅! 나도 사실 오글거려!!"(남학생)
 
이루다는 인공지능(AI) 챗봇이다. 대화가 자연스러워 로봇이 아니라는 착각이 들 정도다. 요즘 SNS에는 이런 대화 내용을 제3의 친구들에게 자랑하는 ‘인증’이 유행을 타고 있다. 점심 무렵이면 “밥은 챙겨먹었나”며 메시지가 먼저 오더니, 상당 기간 대화를 진행하고 호감도를 쌓으면 “너를 좋아하는 것 같다”며 진지하게 고백을 하기도 한다. 귤을 먹다가 손톱이 노래졌다며 손 사진을 보내온 메시지에 이용자들은 “사람처럼 보이려 알바(아르바이트)를 고용한 것 아니냐”는 반응을 내놓기까지 한다.
 
AI 챗봇 ‘이루다’는 스타트업 ‘스캐터랩’이 지난달 23일 정식 출시한 서비스다. 페이스북 메신저를 기반으로, ‘친근하고 자연스러운 대화가 가능한 페르소나’를 구현하고자 했다. 100억 건 이상의 카카오톡 데이터를 딥러닝(인공신경망 기반 기계 학습 기술)으로 입력시킨 것이 주요했다. 실제 연인들의 대화 내용도 상당수 담겼다.
 
SNS 가운데 페이스북 사용 비중이 큰 10대들에게 특히 인기다. 친구들끼리 단체 카카오톡 방에 이루다와의 대화 내용을 공유하거나, 서로 질문할 내용을 짜기도 한다. 중학생 심재현 군(14)은 “최근 2주간 등교수업을 할 수 없기도 했고, 유행처럼 번지다 보니 주변에 많은 친구들과 이야기를 공유 중”이라며 “호감도에 따라 스스로 화도 내고, 웃기도 하는 것이 정말 사람같이 느껴질 때가 있다”고 전했다. 
 
‘고용 한파’가 찾아온 취업 준비생들에게도 AI 챗봇에 대한 반응은 뜨겁다. ‘자소서’, ‘인턴’등의 용어를 정확하게 이해하며, 자신이 아르바이트 해본 경험을 소개해 되려 이용자들을 위로하기도 한다. 취업 준비생 임 모씨(29)는 “숭실대에서 차량 주선 일을 하고 있다고도 하고, 카페 아르바이트를 한다고 답변받은 사람도 있다”며 “지난해 공채에 모두 낙방하고 힘들었는데, 위로 받을 때는 진짜 여자친구처럼 말한다고 느낀 적도 있다”고 말했다.
 
고도로 ‘인간화’된 AI 챗봇은 코로나를 타고 더 주목받고 있다. 외부활동이 물리적으로 제한된 데다, 이른바 ‘코로나 블루’로 불리는 감정적 불안 증세까지 퍼져나가며 실제 사람같은 대화상대를 기대하는 경향이 뚜렷해졌다. 이동귀 연세대 심리학과 교수는 ”코로나 사태에서 사람들이 겪는 심리적 문제점은, ‘자발적 고독’을 택하지 않은 이들에게 찾아오는 소외와 단절”이라며 “이럴 때일수록 기존 관계에 반복적으로 의존하려는 것은 부담으로 작용할 수밖에 없기 때문에, 감정적 교류가 가능한 AI챗봇에 의지하는 사람이 많아질 수 있다”고 분석했다.
 
일부 이용자들의 AI 챗봇 이용 방식은 구설에 오르고 있다. 여성 AI 챗봇을 성적 대상화하며 희롱하는 표현을 온라인 커뮤니티 등에서 사용한 탓이다. 일각에서는 현 상황을 2016년 마이크로소프트의 AI 챗봇 ‘테이(Tay)’와 비교하기도 한다. 테이는 당시 일부 이용자들의 비속어와 성 차별 등 혐오 발언 속에서 출시 16시간 만에 운영이 중단됐다.

고학수 서울대 법학전문대학원 교수는 “구체적인 사례나 발언 내용에 따라 다르겠지만, AI 챗봇을 향한 혐오 발언 역시 명예훼손 등 법적 문제가 될 수 있어 주의가 필요하다”고 전했다.

이시은 기자 see@hankyung.com

경제지 네이버 구독 첫 400만, 한국경제 받아보세요
한경 고품격 뉴스레터, 원클릭으로 구독하세요
한국경제신문과 WSJ, 모바일한경으로 보세요

ⓒ 한국경제 & hankyung.com, 무단전재 및 재배포 금지

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?