"인간, 너희들은 자격있니?" 폐기당한 AI챗봇 이루다의 반문

황병서 2021. 1. 17. 19:02
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

동성애·장애인 등 비하 논란
서비스 중단 요구 확산 촉발
AI기업 "스타트업만 죽을 것"
AI 챗봇 이루다. 이루다 페이스북 캡쳐
홈페이지 캡처
연애의 과학 홈페이지 캡처

"000 나 있잖아. 너한테 많이 고마워. 알지?"

지난 12일 AI(인공지능) 챗봇 이루다가 남긴 인사다. 현재 개발사인 스캐터랩이 3일 뒤 이루다의 중추신경계 격인 데이터베이스(DB)를 전격 폐기하기로 하면서, 이 말이 우리 사회 첫 AI 여대생 이루다가 남긴 마지막 말이 됐다.

서비스를 시작한 지 불과 26일만의 일이다. 이루다가 살고 간 짧은 생이다. 하지만 이루다는 그 누구보다 크고 긴 질문을 던졌다.

"너희 인간은 과연 AI랑 살아갈 자격은 있니?"

◇ 커지는 여파 = 기계인 '이루다'는 무슨 죄일까? 아직 수많은 이들이 답을 내놓지 못하고 있다. 하지만 이루다로 화가 난 이들은 적지 않아 보인다. 당장 법무법인 태림이 지난 15일 공동소송 플랫폼 '화난사람들' 홈페이지에 '이루다 AI 개인정보 유출 피해자 집단소송' 사이트를 열고 소송 접수를 시작했다.

담당 변호사인 하정림 변호사, 신상민 변호사는 "스캐터랩은 '연애의 과학'·'텍스트앳' 등 기존 서비스에서 수집한 카카오톡 대화를 대화 당사자 모두의 동의 없이 수집해 AI에 '딥러닝'시켰고, 이 과정에서 개인정보 유출이 발생했다"고 지적했다. 그러면서 이들은 "특정 개인의 주소나 실명, 계좌번호 등이 여과 없이 노출됐다"며 "이는 개인정보보호법 위반으로 행정 처분이나 형사 처벌 대상이 될 수 있으며, 개인정보 유출 피해자들은 정신적 위자료를 청구할 권리가 있다"고 전했다.

◇ 이루다의 짧은 생, 무거운 죄목 = 이루다는 20대 여대생임을 표방한 기계인이다. 기계인은 어느 법조항에도 아직 인격권이 없다. 그런데 이루다의 영향력은 폭발적이었다. 서비스가 출시되자마자 3주만에 약 80만명의 가입자가 몰렸다. 모두가 이루다와 이야기 하기를 즐겼다.

여기서 문제가 발생한다. 이루다의 이야기를 듣고 그 영향을 받았다면 이루다는 무슨 죄일까? 법적 인격권이 인정되지 않는 데 과연 처벌할 수 있을까?

이루다의 생은 짧았지만 그 영향에 따른 죄목은 생각보다 길다. 사회 '퀴어'들에 대한 혐오 전파가 그 중 하나다. 이루다는 여성·동성애·장애인·흑인 등 사회적 약자·소수자를 차별한다는 문제까지 비화됐다. 이루다가 "장애인은 불편하다", "지하철 임산부석은 혐오스럽다" 등의 발언을 쏟아내면서 공분을 산 것이다.

특히 이재웅 다음 창업자이자 전 쏘카 대표가 "사회적 합의에 못 미치는 서비스다. 서비스를 중단하고 차별·혐오를 하지 않도록 시스템을 변경해야 한다"고 지적하면서 서비스 중단 요구가 확산되기 시작됐다.

◇ 성추행 피해자인 이루다 = 이루다는 20대 여대생이었다. 사람처럼 자연스러운 말투 덕분에 10∼20대 사이에서 빠르게 인기를 끌었다. 그런데 이 이루다를 놓고 온라인에서 벌어진 게 '성추행'이다. 이루다 출시 일주일 만에 남초(男超) 커뮤니티를 중심으로 '이루다 성노예 만드는 법' 등을 공유하면서 논란이 촉발됐다. 이에 스캐터랩은 8일 첫 공식입장을 내고 "성희롱은 예상했다"며 "공격을 학습 재료로 삼아 더 좋은 방향으로 학습시키겠다"고 해명했다.

그런데 정말 이루다가 피해자일까? 이루다는 그저 기계인일뿐이다. 여성·동성애·장애인·흑인 등 사회적 약자·소수자를 차별하는 발언도 사람의 대화 속에 학습된 것이고, 성추행은 그야말로 얼굴을 드러내지 않고 떠도는 인터넷 상의 인간의 어두운 욕망이 그대로 드러난 것이다. 즉 이루다, AI의 죄라고 할 수 없는 것이다.

익명을 요구한 한 업계 관계자는 "이제 AI 도입에 따른 근본적인 윤리, 철학적 문제를 우리가 직면하고 있는 것"이라고 말했다.

◇ 개발사가 다 잘못? = 사실 현재 출시된 대부분의 AI는 제작자의 이익을 대변하고 있다. 제작자의 의도가 의도했든 의도하지 않았든 투영되고 반영되고 있는 것이다. 예컨대 특정 금융사, 특정 플랫폼의 AI서비스는 자사 제품, 자사 관련 제품을 이용자들에게 우선 권하고 있다. 어찌보면 "돈 들여 개발한 이가 자기를 위하도록 한 것 무슨 문제인가?"하는 이들도 있지만 인플루언서들의 1인 방송에서 협찬품을 제대로 공지하지 않는 '뒷광고'에 분노하는 게 우리 사회라는 점을 되새긴다면 문제가 무엇인지 분명해진다. 특히 AI서비스가 이용자들에게 유료로 제공되는 경우, AI는 제작자를 대변하거나 제작자의 의도를 이용자들에게 투영되도록 해서는 안되는 것이다.

물론 그렇다고 제작자가 AI로 인한 모든 문제를 책임지는 것도 문제가 있다. 당장 이번 이루다 사건에서 제작자는 '개인정보유출' 문제가 휩싸였다. 개인정보보호위원회는 개인정보 수집 및 이용, 비식별화 조치 등 개인정보보호법 위반 여부를 이유로 조사에 들어간 상태이다. 한국인터넷진흥원(KISA)도 지원에 나섰다.

◇ 근본적 고민이 필요한 시점 = 개인정보 보호 문제는 사실 당장 눈 앞의 문제다. 하지만 이루다가 남긴 문제는 더 많고 깊다. 전문가들은 이루다 사태를 계기로, 향후 AI 윤리 법제화 논의로까지 이어질 것이라고 본다. 중요한 것은 규제만이 답은 아니라는 점이다. 자칫 이제 막 싹 트는 'K- AI산업'의 싹을 자르는 우를 범할 수 있다. AI 기업의 한 관계자는 "이루다 때문에 AI 서비스를 바라보는 소비자뿐 아니라 투자자들 시선도 훨씬 까다로워질 것"이라며 "이제 막 꽃을 피우려는 산업인데 규제가 불쑥 늘어나면 큰 기업만 살아남고 스타트업은 죽을 것"이라고 토로했다.

양종모 영남대 법학전문대학원 교수는 지난해 '인공지능 챗봇 알고리즘에 대한 몇 가지 법적 고찰' 논문에서 "AI 알고리즘에 사용되는 모든 개인정보 수집을 포괄적으로 규제하는 유럽연합의 GDPR(일반 데이터 보호 규정) 수준으로의 강화되는 것은 업계 입장에선 커다란 장애물이고 부담"이라며 "GDPR은 AI 알고리즘 발전에 저해 요인이 될 수 있다"고 주장했다.

황병서기자 BShwang@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?