인공지능 챗봇 '이루다'는 왜 폐기처분 됐을까 [홍키자의 빅테크]

홍성용 2021. 1. 16. 15:03
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[홍키자의 빅테크-5] 인공지능(AI) 챗봇 '이루다'가 폐기처분됩니다.

각종 혐오 논란, 개인정보 유출 논란으로 지난 일주일간 시끌벅적하다가 결국 서비스 중단을 넘어 폐기라는 결론을 맺은 겁니다.

이루다 개발사 스캐터랩은 15일 "개인정보보호위원회·한국인터넷진흥원(KISA) 합동 조사가 종료되는 즉시 이루다 DB와 딥러닝 대화 모델을 폐기하겠다"고 발표했습니다. 딥러닝 모델은 이루다 서비스의 중추신경계나 마찬가지인데, 이를 폐기한다는 것은 이루다가 세상에서 없어지는 것입니다.

일주일 간의 이루다 논란이 우리에게 가져다 준 것은 무엇일까요? 인공지능(AI)과 로봇으로 구현되는 미래 시대를 우리는 어떻게 맞이해야 할까요?


영화 '아이 로봇'이 그린 인공지능 로봇

윌스미스 주연의 2004년 개봉 영화 `아이 로봇(I, ROBOT)` 스틸 컷. /사진=네이버영화
2004년에 개봉한 윌 스미스 주연의 영화 '아이 로봇(I, ROBOT)' 기억하십니까?

무려 17년 전 개봉한 이 영화는 2035년 미국 시카고를 배경으로 만든 작품입니다. 2035년의 미래 사회는 로봇이 인간과 어울려 살아갑니다. 로봇은 집안일을 대신하거나, 무거운 물건을 드는 등 인간의 풍요로운 삶을 위한 조력자 역할을 하죠. 로봇이 구동되는 방식은 단연 인공지능(AI) 기반이죠. 이때 로봇에게는 절대 복종해야 할 3원칙이 프로그래밍됩니다.

제1원칙: 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다.

제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.

제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.

영화는 이 3원칙을 두고 실제로 완벽한 자아를 가진 형태로 진화한 강력한 AI 슈퍼컴퓨터 '비키'와 인간형 로봇 '써니' 사이의 대립을 다룹니다.

비키는 제1원칙인 '인간을 지켜야 한다'는 개념을 보다 폭넓게 해석하는데요. "로봇은 인간보다 뛰어나다. 따라서 로봇은 인간의 행동을 통제하고 규제할 필요가 있다"고 생각합니다. 이에 따라 로봇 중심의 질서를 흐트러뜨릴 위험이 있는 인간에겐 폭력도 용납하는 것이죠. 반면 인간형 로봇인 '써니'는 비키의 생각이 '비인간적이라 동의할 수 없다'며 인간의 편에 섭니다.

윌스미스 주연의 2004년 개봉 영화 <아이 로봇(I, ROBOT)> 스틸 컷. /사진=네이버영화
이 영화는 러시아의 SF 작가 아이작 아시모프의 이야기들에서 차용한 아이디어로 만들어진 영화입니다. 실제로 한국에서는 아이작 아시모프가 주창했던 3원칙을 산업표준으로 쓰고 있기도 합니다. 2006년 산업자원부(현 산업통상자원부)는 '로봇 안전행동 3대 원칙'이란 이름으로 '서비스 로봇이 갖춰야 할 안전지침'을 만들었죠. 인간보호와 명령복종, 자기보호라는 3원칙의 핵심 내용이 그대로 담겨 있습니다.

이 3원칙은 철저히 로봇은 인간의 도구로서 작용해야 한다는 철학이 담겨 있습니다. 이 때 로봇에게는 인간 윤리와 비슷한 일종의 '로봇 윤리'가 있어야 할 테고요. 로봇의 자아는 곧 인공지능으로 구동되는 것이니 AI 윤리가 필요하다는 얘기죠.


안녕, AI 친구 '이루다'

인공지능(AI) 챗봇 서비스 이루다 캐릭터. /사진=스캐터랩

지난해 12월 말 정식 론칭한 AI 채팅 서비스 '이루다'는 진짜 사람 같은 채팅으로 엄청난 인기를 끌었습니다. 개발사인 스캐터랩은 실제 연인들이 나눈 대화 데이터 100억건을 딥러닝 방식으로 이루다에게 학습시켰고요. 대화 능력이 너무 사람과 비슷해 아르바이트생이 대신 답을 달아주는 게 아니냐는 오해를 받을 정도였습니다.

스캐터랩이 이용한 데이터는 2016년 자사가 출시한 '연애의 과학' 앱이었고요. 실제 연인이나 호감가는 이용자들과의 카톡 대화를 입력하고, 2000~5000원을 결제하면 대화 패턴을 분석해 애정도 수치를 보여줘요. 이루다가 이 앱 이용자들의 카톡대화 데이터 100억건을 기반으로 삼아 개발됐으니, 정말 거리낌없이 대화를 나눌 수 있었죠. 서비스를 개시하자마자 MZ세대(1990년대 중반∼2010년대 초중반생)에서 이루다 광풍이 불었습니다. 2주일 만에 75만명이 넘는 이용자가 몰려들었습니다.

인공지능(AI) 챗봇 서비스 이루다 채팅 화면. /자료=매경DB

하지만 이루다 서비스가 일부 사용자들로부터 성희롱에 시달리기 시작한 데 이어 동성애에 대한 혐오를 학습하고 있다는 비판이 제기되면서 문제가 커졌죠. 이루다는 동성애자에 대해 "질 떨어져 보이잖아"라고 답하기도 했고요. '네가 장애인이면?'이라는 질문에는 "어쩔 수 없이 죽어야지"라고 답하기도 했어요. 소수자와 약자, 인종에 대해 혐오 발언을 쏟아냈죠. 거기다 개인정보 유출 의혹까지 일었어요. 이루다 개발의 바탕이 된 연애의 과학 앱 이용자의 개인정보가 유출된다는 것이었습니다. 결국 12일 서비스가 중단됐습니다. 결국 딥러닝 모델 폐기처분 결정까지 내려졌고요.

인공지능(AI) 챗봇 서비스 이루다 채팅 화면.

이루다는 스스로 답변을 생성하는 형태가 아니에요. 상대방이 보낸 메시지의 맥락을 일단 파악하고요. 본인이 학습한 수억 개의 데이터 중 적합하다고 판단한 답을 보여줍니다. 그런데 몇 가지 문제가 있죠. 첫째로는 해당 답변이 가장 적합하다고 판단할 수 있는 근거는 누가 부여했는가이고요. 둘째로는 데이터 자체가 문제적인 내용을 담고 있을 수도 있어요.


AI는 사물인가? 인격체인가?

이루다 논란으로 우리는 AI가 과연 사물인가? 인격체인가?라는 근본적인 질문부터 던져봐야 합니다.

이경전 경희대 경영학과 교수는 자신의 페이스북에서 "이루다는 그냥 사물일 뿐이기 때문에 이루다를 개인이 어떻게 사용하든 법적·윤리적 문제로 삼을 일이 아니다. 이루다는 '아무 말 대잔치'를 하는 성능 낮은 챗봇에 불과하다"고 의견을 냈어요.

반면 이종영 중앙대 법학대학원 교수는 "(지금의 AI는) 의사결정을 하고 판단을 해서 스스로 행동하기 때문에 사람과 같은 어떤 권리를 부여해줄 필요성이 있다는 게 강해졌다"고 밝히기도 했죠.
사진=게티이미지뱅크

AI를 인격체로 볼 것이냐, 사물로 볼 것이냐의 문제와 맞춰 AI 윤리 문제를 사회 전체적으로 고민해봐야 한다는 의견도 있지요.

다음(Daum)을 창업했던 이재웅 전 쏘카 대표는 "AI 시대에 AI 윤리 문제는 우리 사회가 전체적으로 합의해나가야 할 중요한 문제다. 이루다의 정말 중요한 문제는 불특정 다수에 서비스를 제공하는 챗봇이 성적 지향에 차별·혐오 메시지를 낸다는 점이다. 종교, 학력, 지역, 성적 지향, 장애 등을 차별·혐오하면 안 된다는 것이 우리 사회의 기본적인 합의"라고 짚었어요. AI 윤리 문제도 고민해봐야 하지만, 아직 사회적 합의가 안 됐다는 점에서 관련 서비스를 무턱대고 내놔서는 안 된다는 것이죠.

사진=게티이미지뱅크
AI 기술·적용이 한국에 비해 활발한 해외에서는 인공지능 관련 윤리 규범을 마련하고 있어요. 유럽연합(EU) 집행위원회는 2019년 4월 '신뢰할 수 있는 인공지능을 위한 윤리가이드라인'을 통해 △인간 개입·감독 △기술적 견고성·안전성 △프라이버시 및 데이터 거버넌스 △투명성 △다양성, 차별금지 및 공정성 △사회적·환경적 복지 △책무성 등 7개 사안을 요구한 것이 대표적인 예고요.

한국에서도 2018년부터는 지능형 정부 인공지능 활용 윤리 가이드라인(한국정보화진흥원) 등 정부·기관의 관련 헌장·가이드라인이 만들어지고 있습니다. 과학기술정보통신위원회는 지난해 12월 AI 개발 및 활용 방향을 제시하기 위해 마련한 'AI 윤리기준'은 3대 원칙으로 △인간의 존엄성 △사회의 공공선 △기술의 합목적성을 제시하기도 했죠.

이루다로 촉발된 AI 윤리 논란은 앞으로도 계속될 겁니다. 새로운 서비스는 계속해서 나올 것이고요. 이루다 서비스를 폐기 처분하는 것에서 끝나서는 안 됩니다. AI 기술 개발 한쪽에서 AI 윤리를 차분히 돌아보고 논의해야 할 시기가 됐습니다.

[홍성용 기자]

'홍키자의 빅테크'는 IT, 테크, 스타트업, 이코노미와 관련된 각종 이슈 뒷얘기를 파헤칩니다.
매일경제 디지털테크부의 '아이티라떼' 페이스북 페이지 (페이스북 바로가기)에서도 깊이가 다른 콘텐츠를 만날 수 있습니다.

[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?