사람이 되고픈 꿈 못 이룬 '이루다'

백봉삼 기자 입력 2021. 1. 15. 15:00 수정 2021. 1. 16. 08:15
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[백기자의 e知톡] AI에 대한 환상이 깨지다

(지디넷코리아=백봉삼 기자)인터넷과 모바일 기기 보급으로 비대면으로 소통하는 일이 일상화 된 시대를 우리는 살고 있습니다. 코로나19로 사람 볼 일이 더 줄어들다 보니 누군가에게 내 마음을 내보이고 속 깊은 얘기를 터놓을 기회는 더더욱 줄어들었습니다.

이런 시대의 흐름과 잘 맞아떨어진 서비스 중 하나가 바로 인공지능(AI) 채팅봇(챗봇) ‘이루다’였습니다. 스타트업 스캐터랩이 개발한 이 서비스는 이용자들이 “진짜 사람과 대화하는 것 같다”는 호평 속에 입소문을 탔습니다. 기존에도 챗봇 서비스들이 여럿 있었지만, '이루다'는 사용자들의 방대한 대화 데이터를 수집하고 이를 꾸준히 학습함으로써 사람을 제법 그럴듯하게 흉내 내 이용자들의 호기심을 끌었습니다.

일부 이용자들은 2014년 개봉된 영화인 ‘그녀’(Her)에 등장하는 AI ‘사만다’처럼 ‘이루다’가 다정한 가상의 연인이 되어주길 바란 듯 제법 진지한 대화를 주고받기도 했습니다.

이루다.(사진=이루다 페이스북 페이지)

그 중 또 일부는 ‘이루다’를 성적도구로 삼아 사람 앞에서는 차마 하지 못할 성적 농담을 건넸고, 이를 커뮤니티에 공유하며 다른 이용자들과 웃고 떠들었습니다. 이에 ‘사람을 위한 AI’에 대한 윤리논쟁은 ‘AI에 대한 사람’의 윤리 문제로까지 번졌습니다. 아무리 기계나 시스템에 불과한 AI라 하더라도 사람이 성적 농담을 건네고 욕을 해도 괜찮을까라는 질문을 우리에게 던졌습니다. 나아가 이렇게 잘못된 대화로 학습된 챗봇을 일반 이용자들이 사용하게 되는 것은 아닐까 하는 우려도 커졌습니다. 

‘이루다’ 논란은 여기에서 끝나지 않았습니다. ‘이루다’가 잘못된 학습의 결과로 성소수자나 사회약자에 대한 왜곡된 발언을 하는 사례들이 공개되면서 사회적 파장은 더욱 커졌습니다. 빅데이터를 활용한 AI 기계학습이 반드시 더 나은 결과를 가져올 거란 믿음에 금이 가는 계기가 된 것입니다. ‘이루다’ 일부 이용자들이 잘못된 정보를 주입한 잘못도 적지 않지만, 이를 사전에 제대로 필터링 하지 않고 서비스 개선에 즉각 반영하지 않은 개발사의 책임이 컸습니다.

나아가 스캐터랩의 또 다른 서비스인 ‘연애의 과학’에 사용된 이용자들의 카카오톡 사적 대화 내용이 외부에 공개됐었고, ‘이루다’ 개발에 활용됐다는 의혹까지 더해지면서 ‘이루다’는 회복 불가한 상태에 빠졌습니다. 사람으로 치면 식물인간이 된 셈입니다.

결국 개발사는 ‘이루다’ 서비스 잠정 중단 결정을 내리고, 나아가 정부가 개인정보유출과 관련한 조사에 착수하는 등 논란이 확산되자 ‘이루다’에 활용된 데이터베이스와 관련 대화 모델을 폐기하기로 했습니다. 이루다에 최종 사망진단이 내려진 것입니다.

이번 ‘이루다’ 논란은 비단 한 작은 스타트업 문제만은 아닐 것입니다. 그 동안 IT 개발사들이 정부에게 비식별 데이터 활용을 요구하며 규제 개선의 목소리를 높여왔지만, 일부 회사들은 이에 상응하는 개인정보보호 조치를 제대로 하지 않았다는 뜻이기도 합니다. 

많은 인터넷 기업들과 스타트업들이 말로만 4차산업혁명 시대를 외치고, 여전히 보수적이고 낡은 규제를 고집한다며 정부에 대한 따가운 지적들을 이어왔습니다. 이러다 글로벌 경쟁에서 뒤처진다며 정부의 신속한 결단을 요구해왔습니다. 그렇게 비식별 개인정보 활용에 대한 규제도 완화되고, AI 개발에도 많은 정부 예산이 배정됐습니다.

혹시 우리 회사는 AI 학습에 필요한 데이터 끌어 모으기에만 열을 올리고, 안전한 데이터 수집과 폐기에 대한 원칙, 그리고 구성원들의 데이터 관리 교육을 소홀히 하지 않았나 반성해볼 일입니다. 개인 식별이 불가한 데이터란 생각으로 직원들끼리 손쉽게 공유하거나, 이용자들이 명확히 인지할 수 있는 수준의 동의를 받지 않은 경우는 없었나 이제라도 점검해봐야 합니다. 잘못이 있다면 바로 잡아야 합니다.

만약 ‘이루다’가 완벽한 수준은 아니어도 이용자 개인정보 활용에 있어 최소한의 이용 규칙을 준수하고, 충분히 예상되는 오용 문제를 사전에 점검하고 조치했더라면 어땠을까요. 또 의혹과 문제점들이 발견되고 불거졌을 때 해당 사안을 좀 더 무겁게 받아들이고, 문제 개선에 적극 대처했으면 어땠을까요. 아쉬운 대목이 많습니다.

영화 '그녀'에서 남자 주인공 테오도르는 사만다와 감정을 주고받을 만큼 사랑에 빠지지만, 결국 사만다에게 자신은 ‘여러 유저 중 한 명’이란 사실을 깨닫고 깊은 실망과 배신감을 느낍니다. 나 역시 그녀에게 특별한 존재라고 생각했던 믿음이 깨졌기 때문입니다.

'이루다' 역시 국내 IT업계와 사용자들에게 AI 기술에 대한 기대감과 호기심을 잔뜩 불러일으켰지만, 결국 이용당했다는 배신감을 남기고 쓸쓸한 퇴장을 하게 됐습니다. 제2의 ‘이루다’ 논란이 되풀이 되지 않길 바랍니다.

백봉삼 기자(paikshow@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?