혐오 내뱉은 AI, 예견된 '윤리 둔감증'

최민영 2021. 1. 10. 19:36
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 챗봇 '이루다'의 '젠더 혐오'가 사회적 논란으로 번지고 있다.

20살 여성으로 설정된 챗봇 '이루다'는 성희롱 대상이 되기도, 성소수자 혐오의 주체가 되기도 했다.

김종윤 스캐터랩 대표는 논란이 확산된 지난 9일 <한겨레> 와 한 통화에서 "레즈비언이나 게이가 무엇인지도 (이루다가) 스스로 배워야 한다고 생각해 이 주제로도 대화할 수 있도록 키워드를 배제하지 않았다. 이는 이루다가 좀 더 인간 같은 인공지능으로 발전하길 기대했기 때문"이라고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능 챗봇 '이루다 논란'
AI가 혐오를 반복하지 않으려면?..'이루다'가 한국 사회에 던진 질문

인공지능(AI) 챗봇 ‘이루다’의 ‘젠더 혐오’가 사회적 논란으로 번지고 있다. 20살 여성으로 설정된 챗봇 ‘이루다’는 성희롱 대상이 되기도, 성소수자 혐오의 주체가 되기도 했다. 인공지능 기술이 앞선 미국 등에서 불거진 ‘인공지능 윤리’에 대한 공론화가 ‘이루다 사건’을 계기로 국내에서도 시작했다.

■ 논란의 중심에 선 이루다

스타트업 ‘스캐터랩’이 지난해 12월22일 내놓은 인공지능 챗봇 ‘이루다’는 출시 20일 만에 논란에 휩싸였다. 이루다가 이용자와의 대화에서 차별적 여성성을 재현하고 성소수자를 혐오하는 응답을 내놓았기 때문이다. 지난 8일 일부 이용자들이 이루다를 향해 성희롱성 대화를 시도한 사실이 알려져 논란이 처음 불거졌다. 바로 다음날에는 이루다가 레즈비언이나 게이에 대해 “싫다” “혐오스럽다”고 응답한 점이 비판의 대상이 됐다.

이루다는 스캐터랩이 기존에 내놓았던 메신저 대화 분석 서비스 ‘텍스트앳’과 ‘연애의 과학’에서 확보한 연인 간 대화 데이터 100억건을 학습해 태어났다. 아이돌을 좋아하는 20살 여성 대학생이 정체성으로 설계됐다. 사람처럼 대화할 수 있는 인공지능 서비스라는 입소문을 타면서 출시 한달도 채 되지 않아 1020세대 중심으로 40만명의 이용자를 모았다.

김종윤 스캐터랩 대표는 논란이 확산된 지난 9일 <한겨레>와 한 통화에서 “레즈비언이나 게이가 무엇인지도 (이루다가) 스스로 배워야 한다고 생각해 이 주제로도 대화할 수 있도록 키워드를 배제하지 않았다. 이는 이루다가 좀 더 인간 같은 인공지능으로 발전하길 기대했기 때문”이라고 말했다. 이루다는 실시간이 아닌 부정기적으로 학습(딥러닝)하도록 설계돼 있다.

■ “개발자들의 둔감이 부른 예견된 사고”

전문가들은 이루다 사건을 ‘사고’로 보며 회사 쪽에 책임을 묻는다. 고학수 서울대 법학전문대학원 교수는 10일 <한겨레>와 한 통화에서 “소수자 키워드를 금기어로 설정할지 정도를 고민했다는 것은 너무 초보적이다. (회사 쪽이) 사회윤리적인 측면도 더 진지하고 고차원적인 고민을 했어야 한다”고 말했다. 다음(현 카카오) 창업자 이재웅씨도 페이스북에 “사회적 합의에도 못 미치는 수준의 서비스를 제공한 회사의 문제”라며 “혐오와 차별 메시지는 제공하지 못하도록 (법으로) 강제해야 한다”고 짚었다.

서비스 자체에 잠복한 문제가 불거졌다는 시각도 있다. 손희정 경희대 교수(비교문화연구소)는 “인공지능은 어떤 데이터에 기반해 설계하는지가 중요하다. 20대 이성애 여성성을 활용해 이성애자 남성들의 판타지에 부합하는 캐릭터를 디자인한 순간, 차별적 여성성 재현과 소수자 혐오 태도는 예견된 문제”라고 말했다.

■ 혐오와 차별을 되풀이하지 않으려면…

차별과 혐오를 재현하지 않는 완벽한 인공지능은 만들 수 있을까? 장병탁 서울대 인지과학연구소장(컴퓨터공학부 석좌교수)은 “기술만으로는 불가능할 것”이라며 “현재 인공지능 개발은 인간의 통제를 벗어나 인공지능이 스스로 학습하는 방향으로 진행 중이다. 이는 뛰어난 인공지능이 등장할 수 있지만, 인간 예상 밖의 ‘예외(이상) 행동’도 끊임없이 발생한다는 뜻”이라고 말했다. 논란이 예상되는 키워드 배제와 같은 단순한 조처로는 인공지능의 혐오와 차별의 주체가 되는 현상은 되풀이될 수밖에 없다는 뜻이다. 장 교수는 “‘당대의 인류에게 적용되는 도덕률을 인공지능에게도 적용하라’는 대원칙 속에 기술 개발을 넘어 도덕, 윤리, 제도까지도 포괄하는 논의가 절실하다”고 강조했다.

정부는 지난해 12월 ‘인공지능 윤리기준’을 마련했다. 이루다처럼 도덕률 학습이 덜 된 인공지능이 상용화되고 사회적 논란을 야기하는 현실에 견줘 정부의 발걸음은 굼뜨다는 지적이 나온다.

최민영 기자 mymy@hani.co.kr

Copyright © 한겨레. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?