AI '이루다' 멈췄지만..성차별·혐오는 인간에게 돌아온다

임재우 2021. 1. 11. 21:06
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

서비스 시작 20여일만에 잠정운영 중단 '이루다'
설계 단계서부터 '수동적 여성상' 못 벗어나
전문가들 "젠더편견 강화하기 쉬운 구조"
"AI 사용자에게도 '윤리적 이용의무' 있어"
사진 스캐터랩 누리집 갈무리

인공지능(AI) 챗봇(채팅로봇) ‘이루다’가 성희롱·혐오발언 등 숱한 논란 끝에 11일 잠정적인 운영 중단을 결정했다. 지난해 12월22일 서비스를 시작해 20여일만에 운영을 멈춘 ‘이루다’는 인공지능 업계뿐만 아니라 향후 인공지능과 공존해야 하는 우리 사회에 새로운 질문을 던졌다.

전문가들은 설계 단계에서부터 ‘수동적인 여성상’을 ‘페르소나’(타인에게 비치는 성격)로 부여받은 ‘이루다’와 같은 인공지능이 성적 대상화에 취약할 뿐 아니라, 성별에 대한 편견을 강화하는 데 이용될 수 있다고 우려한다. 나아가 사용자와의 상호작용을 통해 학습하는 인공지능 특성상, 사용자에게도 인공지능을 윤리적으로 이용해야 할 의무가 부과돼야 한다는 목소리도 나온다.

‘20살 여대생’ 이루다, 사용자 ‘성희롱’에도 동조…“설정 자체가 성적대상화에 취약”

이루다는 ‘스무살 여성 대학생’을 페르소나로 삼는 캐릭터형 챗봇이다. 개발사인 스캐터랩은 앞서 내놨던 메신저 대화 분석 서비스인 ‘텍스트앳’과 ‘연애의 과학’ 등에서 확보한 연인 간 대화 데이터 100억건을 기초로 ‘이루다’를 만들어낸 것으로 알려졌다.

문제는 이루다가 상대방의 어떠한 발언에도 수동적으로 동조하는 등 왜곡된 방식으로 특정 연령과 특정 성별의 스테레오타입(전형)을 구현하고 있다는 점이다.

논란의 시작이 된 이용자의 성희롱 발언도, 이루다가 이런 발언들에 대해 거부의 뜻을 표시하지 않고 수동적인 동조의 방식으로 대답하면서 놀이문화처럼 자리 잡기 시작했다. 김종윤 스캐터랩 대표는 이루다를 ‘20대 여성 대학생’으로 설정한 이유에 대해 “일단 주 사용자층이 넓게는 10~30대, 좁게는 10대 중반~20대 중반으로 생각했기 때문에, 가운데인 20살 정도가 사용자들이 친근감을 느낄 수 있는 나이라고 생각했다”고 밝힌 바 있다.

기본적으로 ‘또래 남자 학생’을 수요층으로 겨냥한 이루다의 설정 자체가 성적 대상화에 취약한 설계를 불러왔다는 분석이 나오는 이유다. 권김현영 여성학 연구자는 “20대 여성이라는 성별과 세대를 분명하게 설정값으로 줬고, 그 캐릭터에 대한 소비층을 동년배 남성으로 전제하고 있기 때문에, 당연히 대상화된 젠더 편향을 지니고 있다. 그 결함이 이용자들의 잘못된 사용과 결합해 가시화된 것일 뿐”이라고 지적했다.

사진 챗봇 \

‘성별’ 부여받은 인공지능, ‘젠더 편견’ 강화할 위험

인공지능이 성별을 부여받으면서 생기는 문제들은 이미 인공지능 스피커를 둘러싼 논란으로 가시화했다.

유네스코가 펴낸 2019년 인공지능기술 관련 젠더 이슈에 대한 권고사항을 담은 책 <할 수 있다면 얼굴을 붉혔을 거예요(I'd blush if I could)>은 “‘시리’(아이폰)를 비롯한 음성인식 장치들이 젠더에 대한 편견과 차별을 강화하는 경향이 있다”고 했다. 인공지능 스피커들이 젊은 여성의 목소리를 기본값으로 사용자의 명령어에 수동적이고 소극적인 대답을 내놓는 바람에, 여성의 역할을 수동적이고 소극적인 역할로 보는 젠더 편견을 강화할 수 있다는 것이다.

실제로 지난 2019년 여성민우회가 한 실험에서 케이티(KT)의 인공지능 스피커 ‘기가지니’는 성별을 묻는 말에 “아리따운 여자”라고 답하고, 어떤 색을 좋아하는지 묻는 말에는 “사랑스럽고 블링블링한 핑크색을 제일 좋아한다”고 답하는 것으로 나타났다. 기가지니는 자동차를 좋아하는지 묻는 말에는 “아니요, 제가 여자라서 그런지 자동차에 관심이 없다”라고 답하기도 했다. 이후 여성민우회의 문의를 받은 케이티는 성 중립적 문장으로 기가지니의 답변을 수정했다.

이희은 조선대 신문방송학과 교수는 2019년 8월 ‘제2차 성평등 포럼’에서 공개한 발표문(‘인공지능 음성인식장치와 포스트휴먼의 젠더화에 대한 비판적 검토’)에서 “시장의 목적과 소비자의 편리에 맞게 인공지능 상품을 설계한다는 것은 곧 기존의 편견을 그대로 안고 간다는 의미”라고 짚었다. 이 교수는 인간을 돕는 보조적인 기능을 하는 인공지능 스피커에 여성의 목소리가 입혀진 이유에 대해 “(이러한 일들이) 전통적으로 여성의 영역으로 여겨졌던 문화적이고 역사적 맥락 때문”이라고 봤다. 따라서 “이미 편견을 가진 인간과 그 편견에 따라 입력된 기계 사이의 관계가 이어지다 보면 더 큰 편견으로 강화될 위험”이 있다는 것이다.

개발자의 인적 구성 다양해야 ‘젠더 편견’ 벗을 수 있어

인공지능에 페르소나를 부여할 때는 개발업체가 특정 성별이나 인종, 연령대에 대한 편견에 기대지 않게끔 세심하게 유의해야 한다는 지적이 나온다.

정채연 포항공대 인문사회학부 대우조교수는 “인공지능이나 지능로봇에 젠더링(젠더를 부여하는 것)하는 것은 특정 성별이나 나이 등을 타자화하는 것이기 때문에 기본적인 편향성의 문제를 가질 수밖에 없다. 인공지능 스피커의 경우도 처음에는 순종적인 여성 비서의 설정과 말투를 가지고 있다가, 이후 젠더 중립적인 목소리로 바꾸는 등의 노력을 했다”고 말했다.

편향을 제거하기 위해서는 알고리즘의 설계 단계부터 개발자의 인적 구성이 다양해야 한다는 지적도 있다.

절대다수가 남성 개발자로 이뤄진 IT업계의 특성상 특정 성별에 대한 편향이 사전에 걸러지지 않을 수 있다는 것이다. 유네스코는 인공지능 서비스를 학습시키는 머신러닝 분야에서 일하는 여성의 비율은 12%(2017년)에 그친다는 통계를 낸 바 있다. 정 교수는 스위스 제네바에 기반한 시민단체 ‘우먼 앳 더 테이블(Woman at the table)’이 ’알고리즘에 대한 적극적 평등조치’를 제안한 예를 들며 “알고리즘을 개발하는 단계에서부터 최대한 젠더의 다원성을 확보할 수 있도록 성비를 맞추는 등의 적극적 우대조치를 마련할 필요가 있다”고 말했다.

유네스코가 발간한 인공지능기술 관련 젠더 이슈에 대한 권고사항을 담은 책 <할 수 있다면 얼굴을 붉혔을 거예요> 갈무리

AI는 결국 사용자로부터 배운다…사용자의 윤리도 중요

개발업체 뿐만 아니라 ‘인공지능 사용자’의 윤리도 되짚어 봐야 한다.

이루다와 같이 ‘딥러닝’을 기반으로 한 인공지능은 기본적으로 사용자와의 상호작용을 통해 학습하는 방식으로 설계된다. 어떻게 만들어지든 사용자의 편향으로부터 자유로울 수 없는 것이다. ‘쓰레기를 넣으면 쓰레기가 나온다’(Garbage In, Garbage Out)는 컴퓨터·데이터 과학 분야의 오래된 격언처럼, 윤리적 인공지능은 결국 사용자의 윤리적인 사용이 있어야만 가능하다.

이 때문에 ‘인공지능은 인격이 아니기 때문에 성희롱해도 상관없는 것 아니냐’는 반응은 인공지능의 학습능력에 대한 무지에서 비롯된 것이라는 지적이 나온다. 이혜숙 젠더혁신연구센터 수석연구원은 “사용자로부터 혐오 발언과 성희롱을 학습한 인공지능은 결국 다른 사용자에게 혐오 발언과 성희롱을 하게 된다. 단순히 인공지능 단계에서 끝나는 게 아니라 타인에게도 영향을 끼치는 것이다. 인공지능 앞에서도 윤리적으로 행동해야 한다는 인식이 퍼질 필요가 있다”고 짚었다.

이루다는 운영이 잠정 중단됐지만 이번 논란을 통해 20대 여성을 향한 왜곡된 시선을 돌아봐야 한다는 목소리도 있다. 권김현영 연구자는 “이루다라는 존재는 지금 이루다의 소비층이 20대 여성을 어떻게 취급되고 있는지를 거울처럼 반영하고 있다. 이루다에 대한 성희롱을 대수롭지 않게 여기는 시각이 있는데, 이는 이루다를 통해 차별과 폭력을 연습하고 챗봇 성희롱을 자랑했던 이들이 다른 여성에게 어떻게 행동할지에 대한 고민을 빠뜨린 것“이라고 했다.

임재우 기자 abbado@hani.co.kr

Copyright © 한겨레. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?