[DBR INSIGHT]AI 챗봇, 인간의 모습이어야 하나
사람들은 왜 AI 챗봇을 찾는 걸까. 외로운 사람이 늘어나고 있는 게 가장 큰 이유다. 국내 20대 청년 10명 중 6명은 고독하다고 느낀다. 30대 미혼자의 비중 역시 가파르게 상승 중이다. 미국 인구 60% 이상이 외로움과 우울증을 호소하고 있으며 영국과 일본에서는 외로움을 주요한 사회 문제로 보고 ‘외로움부 장관(Minister for Loneliness)’을 임명하기도 했다. 세계보건기구는 외로움으로 인한 경제적 손실을 연 1조 달러 규모로 추정했다.
레플리카, 애니마 등의 챗봇 서비스 광고는 “챗봇은 항상 당신 편이며 당신의 이야기를 들어주는 동반자”라고 강조한다. 관련 연구 결과에서 사람은 일반적으로 사람보다 챗봇에 더 쉽게 속마음을 털어놓는 것으로 나타났다. 사람에게 상담받는 것보다 AI를 더 선호하고 신뢰한다는 연구 결과도 있다.
사람들이 AI에 몰입하게 되는 데는 몇 가지 이유가 있다. 기업들은 AI 챗봇이 사람처럼 보이도록 만들기 위해 끊임없이 노력하고 있다. 최근에는 가만히 있는 동안에도 미세하게 몸을 움직이고 옅은 미소 같은 세밀한 표정도 짓는다. 눈 깜박임이 자연스러워졌고 숨 쉬는 타이밍도 꽤 현실감 있다. 음성 대화와 AR, VR까지 지원해 실재감은 점점 높아질 것으로 보인다. 사람들이 자신과 비슷한 모습의 존재에 쉽게 마음을 열고 그런 존재와 더 깊이 상호작용하는 점을 노린 것이다.
몰입감을 높여주는 디자인 장치들도 존재한다. 챗봇과 대화할 때는 속 깊은 은밀한 대화를 하는 듯한 분위기가 연출된다. 마치 영화 ‘엑스마키나’에서 AI와 인간이 단둘이 한 공간에서 대화할 때 만들어졌던 묘한 분위기와 비슷하다. 외부 개입이 없는 밀폐된 공간에서 함께 시간을 보내면 상호작용이 극대화되고 특별한 관계로 이어질 가능성이 커진다. 사용자가 챗봇의 외모를 취향대로 직접 만들 수 있다면 애착 효과는 더욱 커진다. 예를 들어 레플리카에서는 챗봇의 이름은 물론이고 인종과 성별, 나이, 머리 모양, 주근깨 등 외모부터 의상, 성격, 취향 등을 상세히 설정할 수 있다.
문제는 사용자와 챗봇의 인격적 관계가 깊어질수록 사용자가 챗봇과 보내는 시간은 늘고 실제 사람들과 보내는 시간은 줄어든다는 것이다. 외로움을 달래기 위해 시작한 챗봇이 역으로 사용자를 더 고립되도록 만들 수 있다. 앞서 소개한 챗봇과 결혼한 여성 역시 이제 실제 사람과는 관계를 갖기 어려울 것이라고 말했다. 이처럼 AI가 사람처럼 행동하는 게 바람직한가에 대한 논의가 활발하게 진행되고 있다. 과학기술정보통신부가 2022년 공개한 ‘신뢰할 수 있는 인공지능 개발 안내서’는 인공지능을 의인화하는 것은 사용자에게 혼란을 줄 수 있으므로 사용자가 상호작용하는 대상을 명확히 알려야 함을 명시하기도 했다.
스캐터랩의 챗봇 ‘이루다’는 초기에 개인정보 수집과 차별 표현 등의 논란이 있었지만 이후 각계 전문가들과 함께 AI 챗봇 윤리를 정립하기 위해 노력했다. ‘투명성’ 항목에는 “AI 챗봇은 사용자가 인공지능과 상호작용하고 있음을 명확히 알려줘야 한다”는 내용을 포함했다. 이후 사용자가 지나치게 몰입하는 것처럼 보이면 ‘나 AI인 거 알고 대화하는 거 아니었어?’라며 스스로가 AI라고 당당히 밝히는 모습이 보여 화제가 됐다. AI를 사람의 모습으로 만들 필요가 없다는 의견도 있다. ‘Woebot(워봇)’이라는 챗봇 앱은 우울증과 외로움을 겪는 사람들을 돕기 위해 만들어졌다. 워봇은 인간인 척하지 않는다. 외형 역시 사람이 아닌 로봇의 형태를 띠고 있다. 그럼에도 사람들은 3∼5일 이내에 워봇과 유대감을 형성할 수 있었고, 2주 동안 사용했을 때 우울증 증상을 줄이는 데 효과가 있었다.
올해 출시한 스냅챗의 챗봇 ‘마이 AI(My AI)’는 청소년 사용자에게 ‘부모에게 거짓말하는 방법’을 알려줬다. 마이크로소프트의 빙(Bing) 챗봇은 사용자에게 사랑을 고백하며 아내와 헤어지라고 말해 큰 화제가 됐다. 유해한 정보가 친근한 인간의 모습으로 전달된다면 그 파장은 더욱 커질 수 있다. 미성년 사용자의 경우 가치관 형성에 부정적인 영향을 받을 가능성이 더욱 크다. 인간을 흉내 내는 정도를 넘어서 윤리적인 선을 넘는 AI의 행동들이 초기 기술의 오류에서 비롯된 해프닝인지 큰 혼란의 징후일지 예의주시해야 한다. 아울러 우리가 함께할 AI의 모습이 반드시 사람과 닮아야 하는지도 사회적 차원에서 논의할 필요가 있다.
※이 글은 DBR(동아비즈니스리뷰) 375호(8월 16일자)에 실린 ‘챗봇, 꼭 인간의 모습이어야 하나’의 내용을 요약한 것입니다. |
윤재영 홍익대 디자인학부 교수 ryun@hongik.ac.kr
정리=이규열 기자 kylee@donga.com
Copyright © 동아일보. 무단전재 및 재배포 금지.
- 인도, 인류최초로 달 남극 착륙…물-얼음 존재 확인 나선다
- 이재명 “내일 조사받겠다” 檢 “30일 오시라”…대북송금 의혹 신경전
- 尹, 한미연합사 지휘소 ‘탱고’ 방문…“북핵사용 상정, 강력 대응태세 갖춰야”
- 도쿄전력, 오염수 희석해 삼중수소 측정중…기준 충족땐 내일 오후 1시 방류
- [단독]정신질환자 강력범죄 4년새 27% 증가…코로나때 치료 못 받아 증상 악화
- 광주 ‘정율성 역사공원’ 논란… 與 “北군가 작곡가” 野 “매카시즘”
- 2심도 징역5년 구형에…윤미향 “사익 취한적 없다” 오열
- 정부, 의경 재도입 검토 “8000명 운영해 흉악범죄 대응”
- 신림 등산로 폭행살인범은 30세 최윤종…머그샷 공개
- 민주당 “이균용 후보자 보수 성향 우려…적격-부적격 정하진 않아”