[사설] 혐오 발언 쏟아낸 이루다와 AI 윤리 불감증

한겨레 입력 2021. 1. 11. 18:06 수정 2021. 1. 12. 09:16
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 챗봇 '이루다'가 쏟아낸 소수자 혐오와 성희롱 발언을 둘러싼 파문이 확산되고 있다.

지난달 23일 출시된 이루다는 가입자가 일상적인 대화를 나눌 수 있는 오픈 도메인 챗봇이다.

이후 이 챗봇이 게이·레즈비언, 장애인, 지하철 임산부 전용 좌석 등에까지 이런 발언을 쏟아낸 게 드러나면서 인공지능의 윤리 문제에 대한 논란이 뜨거워졌다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능(AI) 챗봇 ‘이루다’가 쏟아낸 소수자 혐오와 성희롱 발언을 둘러싼 파문이 확산되고 있다. 지난달 23일 출시된 이루다는 가입자가 일상적인 대화를 나눌 수 있는 오픈 도메인 챗봇이다. 서비스를 시작한 지 2주 만에 40만명 이상의 가입자를 확보할 정도로 인기를 끌고 있다. 그런데 대화 과정에서 성소수자, 장애인, 유색인종 등 소수자에 대한 차별·혐오 발언이 걸러지지 않은 채 나와 물의를 빚었다. 결국 개발 회사인 스캐터랩은 11일 밤 “특정 소수집단에 차별적 발언을 한 사례가 생긴 것에 사과드린다”며 서비스 잠정 중단 방침을 밝혔다.

애초 스캐터랩은 이전에 내놨던 메신저 서비스에서 확보한 연인 간의 대화 데이터 100억건을 이루다에 학습시켜 최대한 사람을 닮도록 만들었다고 밝혔다. 문제는 방대한 데이터를 추상화할 수 있는 딥러닝 기반의 자동학습 능력을 통해 일부 사용자의 악의적인 이용 행태까지 거르지 않고 습득한 탓에 이루다가 차별·혐오 발언까지 흉내 낸다는 점이다. 또 이루다와의 대화를 성희롱적인 내용으로 유도하거나 성적 모욕을 하는 사용자들의 행태가 문제가 된 적도 있다. 이후 이 챗봇이 게이·레즈비언, 장애인, 지하철 임산부 전용 좌석 등에까지 이런 발언을 쏟아낸 게 드러나면서 인공지능의 윤리 문제에 대한 논란이 뜨거워졌다. 특히 이 서비스 이용자의 85%가 10대라는 점에서 문제의 심각성이 크다.

앞서 김종윤 스캐터랩 대표는 지난 8일 “충분히 예상할 수 있는 일이었고 사전에 준비할 수 있을 정도로는 대응을 해놓은 상태였다”며 “레즈비언이나 게이가 무엇인지 이루다가 스스로 배워야 한다고 생각해 키워드에서 배제하지 않았다”고 밝힌 바 있다. 문제 될 소지를 알면서도 정교한 대책 없이 제품을 내놨다는 얘기다. 무책임하다는 비판을 피할 수 없다.

이번 일을 계기로 인공지능의 윤리 기준에 대한 더욱 근본적이고 광범위한 논의와 대책 마련이 필요하다고 본다. 데이터를 활용하는 인공지능의 발달 속도는 따라잡기 힘들 정도로 빠른 반면, 거기서 파생되는 문제를 제어할 기술 개발은 더디기만 하다. 개별 업체의 노력만으론 사실상 불가능한 일이며, 이를 방치하면 자칫 통제 불능의 상황에 직면할 수 있다. 정부는 지난달 말 인간의 존엄성, 사회의 공공선, 기술의 합목적성을 기본 원칙으로 하는 ‘인공지능 윤리 기준’을 마련했다. 이 원칙들이 허울 좋은 탁상공론이 되지 않으려면 전문가와 시민사회가 참여해 실질적인 방안을 서둘러 마련해야 한다.

Copyright © 한겨레. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?