'이루다'가 던진 화두는 무엇일까요

최민영 2021. 1. 15. 19:36
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[[토요판] 친절한 기자들][토요판] 친절한 기자들
스타트업 ‘스캐터랩’이 지난해 12월22일 내놓은 인공지능 챗봇 이루다.

인공지능 챗봇 ‘이루다 사건’은 한국 사회에 많은 질문을 던졌습니다. ‘이루다 사건’은 이용자들의 성희롱 대화 시도로 시작해, 인공지능의 젠더·인종 혐오 대화, 개발사 스캐터랩의 데이터 활용상의 문제로 확대됐습니다. 인공지능과 함께 살아갈 세상에서 마주할 수 있는 문제점들이 짧은 시간에 다양하게 드러났죠. 모두 ‘인간의 존엄성’과 얽혀 있는 문제들이라 사람들은 뜨겁게 반응했습니다. 쉬어가는 주말인 만큼 뜨거웠던 이슈에서 한발 떨어져서, 인공지능과 함께 살아갈 우리가 ‘이루다 사건’을 계기로 어떤 고민을 해야 할지 한번 살펴볼까요?

처음 논란이 불거졌던 젠더, 인종 등 인공지능의 소수자 혐오 논란은 참 어려운 주제 같습니다. 차별을 하면 안 된다는 원칙이 있더라도 그 안에서 다양한 가치판단을 할 수 있기 때문이겠죠. 인공지능의 편향성이 과연 해소될 수 있을지, 공학부터 인문학까지 여러 전문가에게 물어봤습니다. 인공지능의 편향성을 해소할 필요가 있냐는 주장부터 해소할 수 없을 것이라는 시각까지 다양한 얘기를 들었습니다. 그런데 이 모든 주장의 바탕에는 ‘인간이 차별을 한다’는 사실이 깔려 있었습니다. 인간이 차별을 하는 한, 인간의 데이터를 학습하고 인간에 의해 설계된 인공지능이 편향성을 갖는 것은 당연하다는 거죠. 이루다가 성소수자와 흑인이 “너무 싫다”고 답한 것도 결국 인간의 편견을 배운 것이니까요.

그렇다면 ‘인공지능도 인간의 차별을 반복하도록 내버려둬도 되는 것인가?’ 되물었을 땐 모두가 “그렇지 않다”고 답했습니다. 이미 많은 연구자들은 인류가 쌓아온 혐오와 차별을 인공지능 시대에 반복하지 않을 방법을 찾고 있었습니다. 그런데 이 답은 공학자나 연구자들에게 맡겨둔다고 풀리는 건 아닌 것 같습니다. 왜냐하면 이건 인간처럼 행동하지만 인간은 아닌, 하지만 인간을 넘어설 수도 있는 전에 없던 새로운 존재와 어떻게 살아가야 할지 새로운 규칙을 만들어야 하는 문제이기 때문입니다. 그리고 인공지능이 차별을 하지 않으려면 인공지능의 거울이 되는 인간의 차별이 먼저 없어져야 하기도 하고요. 인공지능에게 얼마만큼의 도덕을 요구할지, 인공지능을 인간의 삶에 얼마나 개입시킬지, 아니 그 전에 인간의 삶에 존재하는 차별을 어떻게 먼저 해소할지, 이루다 사건을 계기로 모든 사람들이 고민할 문제입니다.

이루다를 개발한 스캐터랩을 사람들이 한목소리로 비난하게 된 계기가 ‘개인정보’ 문제였다는 점도 눈에 띄었습니다. 어쩌면 우리는 인공지능의 개발, 활용 윤리를 고민하기 전에, 그 재료가 되는 데이터를 수집하고 활용하는 규칙부터 논의해야 할지도 모릅니다. 이루다는 대화 심리분석 앱인 ‘연애의 과학’ 등 다른 스캐터랩 서비스 이용자들이 쌓아준 카카오톡 대화 데이터를 학습했습니다. 그런 이루다가 연애의 과학 이용자들의 개인정보를 말하는 것 같다는 의혹이 불거졌고, 개발사가 대화 데이터 일부를 전세계 오픈소스 공유 플랫폼 깃허브에 올린 점은 분노에 기름을 부었습니다.

사람들은 민감한 대화 데이터가 상식적으로 예상했던 동의 범위를 벗어나서 활용됐다는 점에 분노합니다. 연애의 과학에 가입하면서 개인정보 제공에 동의한 건 연애의 과학 서비스를 위해서지, 전혀 다른 서비스를 개발하는 데 쓰라는 건 아니었다는 겁니다. 민감한 이야기를 나누고 있는 대화 상대의 동의는 전혀 받지 않았다는 점도 큰 비판의 대상이죠.

그런데 나도 모르게 내 정보가 활용되는 일이 또 일어날 수 있다는 사실을 알고 계셨나요? 지난해 8월5일 시행된 ‘데이터 3법’은 비식별처리한 개인정보인 가명정보를 ‘정보주체’의 동의 없이 활용할 수 있게 했습니다. ㄱ통신사의 통신비 연체 정보가 ㄴ은행이 대출 여부를 판단하는 데 활용될 수 있는 겁니다. 스캐터랩은 그나마 같은 회사 안에서의 활용이었지만, 이 법은 전혀 다른 회사에 내 가명정보를 내 동의 없이 판매도 할 수 있게 했습니다. 이런 법이 만들어지는 데 매일 아이티 서비스를 이용하며 데이터를 쌓아주는 정보주체인 개별 시민들의 목소리는 크게 반영되지 않았습니다. 그리고 법은 기업의 이익을 대폭 반영하는 방향으로 완화됐습니다.

일상이 바쁜 보통 사람들은 ‘데이터 3법’, ‘가명정보’, ‘비식별처리’와 같은 어려운 개념에 크게 관심을 두기 어려웠을 것입니다. 하지만 이번 사건으로 그 내용을 조금은 이해할 수 있었던 것 같습니다. 인공지능 시대에 내 정보가 어떻게 쓰이고, 여기엔 어떤 편리함과 위험성이 공존하는지 이번 일을 계기로 더 깊이 생각해보면 어떨까요? 첨단 기술을 이용하면서 누리는 편리함은 결국 내가 만들어낸 데이터에서 시작된 것이니까요. 데이터 보호와 활용의 적정한 수준은 기업과 정부뿐만 아니라 ‘데이터의 주인’인 개인도 고민해야 할 것입니다.

최민영 산업팀 기자 mymy@hani.co.kr

Copyright © 한겨레. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?