인공지능 챗봇 '이루다'는 왜 폐기처분 됐을까 [홍키자의 빅테크]
[홍키자의 빅테크-5] 인공지능(AI) 챗봇 '이루다'가 폐기처분됩니다.
각종 혐오 논란, 개인정보 유출 논란으로 지난 일주일간 시끌벅적하다가 결국 서비스 중단을 넘어 폐기라는 결론을 맺은 겁니다.
이루다 개발사 스캐터랩은 15일 "개인정보보호위원회·한국인터넷진흥원(KISA) 합동 조사가 종료되는 즉시 이루다 DB와 딥러닝 대화 모델을 폐기하겠다"고 발표했습니다. 딥러닝 모델은 이루다 서비스의 중추신경계나 마찬가지인데, 이를 폐기한다는 것은 이루다가 세상에서 없어지는 것입니다.
일주일 간의 이루다 논란이 우리에게 가져다 준 것은 무엇일까요? 인공지능(AI)과 로봇으로 구현되는 미래 시대를 우리는 어떻게 맞이해야 할까요?
무려 17년 전 개봉한 이 영화는 2035년 미국 시카고를 배경으로 만든 작품입니다. 2035년의 미래 사회는 로봇이 인간과 어울려 살아갑니다. 로봇은 집안일을 대신하거나, 무거운 물건을 드는 등 인간의 풍요로운 삶을 위한 조력자 역할을 하죠. 로봇이 구동되는 방식은 단연 인공지능(AI) 기반이죠. 이때 로봇에게는 절대 복종해야 할 3원칙이 프로그래밍됩니다.
제1원칙: 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다.
제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.
제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.
영화는 이 3원칙을 두고 실제로 완벽한 자아를 가진 형태로 진화한 강력한 AI 슈퍼컴퓨터 '비키'와 인간형 로봇 '써니' 사이의 대립을 다룹니다.
비키는 제1원칙인 '인간을 지켜야 한다'는 개념을 보다 폭넓게 해석하는데요. "로봇은 인간보다 뛰어나다. 따라서 로봇은 인간의 행동을 통제하고 규제할 필요가 있다"고 생각합니다. 이에 따라 로봇 중심의 질서를 흐트러뜨릴 위험이 있는 인간에겐 폭력도 용납하는 것이죠. 반면 인간형 로봇인 '써니'는 비키의 생각이 '비인간적이라 동의할 수 없다'며 인간의 편에 섭니다.
이 3원칙은 철저히 로봇은 인간의 도구로서 작용해야 한다는 철학이 담겨 있습니다. 이 때 로봇에게는 인간 윤리와 비슷한 일종의 '로봇 윤리'가 있어야 할 테고요. 로봇의 자아는 곧 인공지능으로 구동되는 것이니 AI 윤리가 필요하다는 얘기죠.
지난해 12월 말 정식 론칭한 AI 채팅 서비스 '이루다'는 진짜 사람 같은 채팅으로 엄청난 인기를 끌었습니다. 개발사인 스캐터랩은 실제 연인들이 나눈 대화 데이터 100억건을 딥러닝 방식으로 이루다에게 학습시켰고요. 대화 능력이 너무 사람과 비슷해 아르바이트생이 대신 답을 달아주는 게 아니냐는 오해를 받을 정도였습니다.
스캐터랩이 이용한 데이터는 2016년 자사가 출시한 '연애의 과학' 앱이었고요. 실제 연인이나 호감가는 이용자들과의 카톡 대화를 입력하고, 2000~5000원을 결제하면 대화 패턴을 분석해 애정도 수치를 보여줘요. 이루다가 이 앱 이용자들의 카톡대화 데이터 100억건을 기반으로 삼아 개발됐으니, 정말 거리낌없이 대화를 나눌 수 있었죠. 서비스를 개시하자마자 MZ세대(1990년대 중반∼2010년대 초중반생)에서 이루다 광풍이 불었습니다. 2주일 만에 75만명이 넘는 이용자가 몰려들었습니다.
하지만 이루다 서비스가 일부 사용자들로부터 성희롱에 시달리기 시작한 데 이어 동성애에 대한 혐오를 학습하고 있다는 비판이 제기되면서 문제가 커졌죠. 이루다는 동성애자에 대해 "질 떨어져 보이잖아"라고 답하기도 했고요. '네가 장애인이면?'이라는 질문에는 "어쩔 수 없이 죽어야지"라고 답하기도 했어요. 소수자와 약자, 인종에 대해 혐오 발언을 쏟아냈죠. 거기다 개인정보 유출 의혹까지 일었어요. 이루다 개발의 바탕이 된 연애의 과학 앱 이용자의 개인정보가 유출된다는 것이었습니다. 결국 12일 서비스가 중단됐습니다. 결국 딥러닝 모델 폐기처분 결정까지 내려졌고요.
이루다는 스스로 답변을 생성하는 형태가 아니에요. 상대방이 보낸 메시지의 맥락을 일단 파악하고요. 본인이 학습한 수억 개의 데이터 중 적합하다고 판단한 답을 보여줍니다. 그런데 몇 가지 문제가 있죠. 첫째로는 해당 답변이 가장 적합하다고 판단할 수 있는 근거는 누가 부여했는가이고요. 둘째로는 데이터 자체가 문제적인 내용을 담고 있을 수도 있어요.
이루다 논란으로 우리는 AI가 과연 사물인가? 인격체인가?라는 근본적인 질문부터 던져봐야 합니다.
이경전 경희대 경영학과 교수는 자신의 페이스북에서 "이루다는 그냥 사물일 뿐이기 때문에 이루다를 개인이 어떻게 사용하든 법적·윤리적 문제로 삼을 일이 아니다. 이루다는 '아무 말 대잔치'를 하는 성능 낮은 챗봇에 불과하다"고 의견을 냈어요.
AI를 인격체로 볼 것이냐, 사물로 볼 것이냐의 문제와 맞춰 AI 윤리 문제를 사회 전체적으로 고민해봐야 한다는 의견도 있지요.
다음(Daum)을 창업했던 이재웅 전 쏘카 대표는 "AI 시대에 AI 윤리 문제는 우리 사회가 전체적으로 합의해나가야 할 중요한 문제다. 이루다의 정말 중요한 문제는 불특정 다수에 서비스를 제공하는 챗봇이 성적 지향에 차별·혐오 메시지를 낸다는 점이다. 종교, 학력, 지역, 성적 지향, 장애 등을 차별·혐오하면 안 된다는 것이 우리 사회의 기본적인 합의"라고 짚었어요. AI 윤리 문제도 고민해봐야 하지만, 아직 사회적 합의가 안 됐다는 점에서 관련 서비스를 무턱대고 내놔서는 안 된다는 것이죠.
한국에서도 2018년부터는 지능형 정부 인공지능 활용 윤리 가이드라인(한국정보화진흥원) 등 정부·기관의 관련 헌장·가이드라인이 만들어지고 있습니다. 과학기술정보통신위원회는 지난해 12월 AI 개발 및 활용 방향을 제시하기 위해 마련한 'AI 윤리기준'은 3대 원칙으로 △인간의 존엄성 △사회의 공공선 △기술의 합목적성을 제시하기도 했죠.
이루다로 촉발된 AI 윤리 논란은 앞으로도 계속될 겁니다. 새로운 서비스는 계속해서 나올 것이고요. 이루다 서비스를 폐기 처분하는 것에서 끝나서는 안 됩니다. AI 기술 개발 한쪽에서 AI 윤리를 차분히 돌아보고 논의해야 할 시기가 됐습니다.
[홍성용 기자]
'홍키자의 빅테크'는 IT, 테크, 스타트업, 이코노미와 관련된 각종 이슈 뒷얘기를 파헤칩니다.
매일경제 디지털테크부의 '아이티라떼' 페이스북 페이지 (페이스북 바로가기)에서도 깊이가 다른 콘텐츠를 만날 수 있습니다.
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지
- 강릉 찍고 부산 제주…하늘위 호텔 A380 무착륙 관광 해볼까
- 한국공항서 20년 무사고 `명장` 탄생
- 아이두젠, 육각 구조 형태의 차박텐트 A10 디자인 특허 획득
- 심플랫폼, 종합 IoT 플랫폼 ‘누비슨 IoT’로 비대면 서비스 제공
- [속보] 한전, 작년 영업이익 4조…3년만 흑자전환
- 강경준, 상간남 피소…사랑꾼 이미지 타격 [MK픽] - 스타투데이
- LS그룹이 전격 철회한 RSU 뭐길래 [BUSINESS]
- ‘음주 운전’ 김새론, 연극 ‘동치미’ 하차...연기 복귀 노렸지만 ‘부정적 여론’에 무산 - MK
- 이찬원, 이태원 참사에 "노래 못해요" 했다가 봉변 당했다 - 스타투데이
- 양희은·양희경 자매, 오늘(4일) 모친상 - 스타투데이