허점 드러난 AI 알고리즘..포털 뉴스, 택시앱 이어 챗봇까지 논란

박현익 기자 2021. 1. 11. 18:33
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

챗봇 ‘이루다’로 재조명된 AI 알고리즘 논란
포털 뉴스배치와 택시 호출 앱도 공정성 시비
좋은 방향 설정해도 언제 어디로 튈지 몰라
인간이 설계하기 때문에 중립적일 수 없어
"공통된 기준 설정과 지속적인 관리 필요"

이번에는 인공지능(AI) 챗봇(chatbot·채팅 로봇) 논란이다. 국내 한 스타트업이 20대 여성을 모델로 만든 AI 챗봇 ‘이루다’가 성희롱 대상이 된 데 이어 성소수자 등에 대한 혐오를 여과 없이 드러낸 사실이 알려지며 물의를 빚고 있다.

논란이 된 AI 챗봇 ‘이루다’의 동성애자 혐오 발언. /스캐터랩, 페이스북 캡처

사람이 설정해 둔 알고리즘에 따라 학습, 발전하는 AI의 허점을 단적으로 보여준 사례라는 평가가 나온다. 챗봇뿐만 아니라 포털 뉴스나 택시 호출애플리케이션(앱) 등이 AI, 알고리즘을 내세워 객관성, 가치중립성을 담보했다고 주장하지만 결국 개발자들이 어떻게 방향성을 정해주느냐에 따라 천차만별의 결과를 낳을 수 있다. 알고리즘 운영에 대한 사회적 합의가 필요하고 문제 해결을 위한 원칙을 수립해야 한다는 목소리가 제기된다.

이루다는 스타트업 ‘스캐터랩’이 지난해 12월 23일 출시했다. 출시 2주 만에 이용자 32만명을 돌파했다. 지난 6일 기준 일일 이용자 수는 21만명, 누적 대화량은 7000만건에 달한다. 이루다는 가수 블랙핑크를 좋아하는 20세 여성을 콘셉트로 사용자들과 대화를 하면서 학습한다. 스캐터랩에 따르면 이루다 개발에 100억건 이상의 한국어 대화 데이터를 활용했다고 한다.

처음 논란은 이루다를 상대로 음담패설 등 성희롱을 한 뒤 이를 자랑하듯 인증하는 사람들 때문에 불거졌다. 이어 이루다가 동성애자와 장애인 등 사회적 소수자에 대한 질문에 차별적인 발언을 하며 논란이 확산됐다. 이루다는 레즈비언에 관한 질문에 "진짜 싫다", "혐오스럽다"고 했고, ‘네가 장애인이라면’이라고 묻자 "그냥 죽는 거지"라고 답했다. 데이터 학습을 통해 만들어진 이루다에 성적인 대화나 편견이 반영된 것이다.

포털 ‘다음’ 창업자인 이재웅 전 쏘카 대표는 이루다 논란에 대해 "사회적 합의에도 못 미치는 수준의 서비스를 제공한 회사의 문제다"라며 "기본적으로 차별과 혐오는 걸러냈어야 했다"고 지적했다. 그는 또 "편향된 학습데이터면 보완하거나 보정을 해서라도 혐오, 차별 메시지는 제공하지 못해야 한다"며 "서비스를 중단하고 사회적 감사를 통과한 뒤 서비스해야 한다"고 했다.

윤영찬 더불어민주당 의원이 포털 ‘다음’ 메인에 실린 국민의힘 주호영 원내대표의 교섭단체 대표연설 뉴스에 대해 불만을 제기하며 ‘이거 카카오에 강력히 항의해주세요’ ‘카카오 너무하군요. 들어오라고 하세(요)’라고 문자 메시지를 보내고 있다. /연합뉴스

AI 알고리즘의 문제는 앞서 뉴스 편집과 택시 배차 앱을 둘러싸고도 조명된 바 있다.

지난해 9월 더불어민주당 윤영찬 의원의 이른바 ‘카카오 들어와’ 사건을 계기로 포털 뉴스의 인위적인 조작이 가능한 것 아니냐는 의혹이 제기됐었다. 네이버 부사장 출신이자 청와대 국민소통수석을 지낸 윤 의원이 포털 뉴스 배치와 관련해 직접 카카오 관계자를 항의 차원에서 불러들이려다 불거진 논란이다. 이에 대해 네이버, 카카오 등 포털 측은 뉴스가 AI 알고리즘에 따라 배치되기 때문에 사람이 개입될 여지가 없다고 해명했다.

그러나 일각에서는 AI라는 이유만으로 괜찮다는 논리는 무책임한 태도라는 비판이 제기됐다. AI 알고리즘은 한쪽으로 치우치기 쉽고, 어떤 데이터가 쌓이냐에 따라 얼마든지 바뀔 가능성이 있기 때문이다. 맞춤형으로 추천된다는 뉴스가 사용자들의 확증편향을 강화시킨다는 점도 문제로 지적됐다.

비슷한 시기 ‘카카오T’ 앱을 운영하는 카카오모빌리티도 AI와 관련해 공정성 논란에 휘말렸다. 자사 프리미엄 서비스인 ‘T블루’ 제휴 택시를 우선해서 배차를 한다는 이른바 ‘택시 콜 몰아주기 의혹’이다. 택시업계는 "카카오 직영·가맹에 속하지 않은 일반 택시의 콜 수가 현격히 줄었다"며 카카오가 콜을 차별적으로 배분했다고 주장했다. 이에 대해 카카오는 마찬가지로 배차 시스템이 AI로 운영된다는 점 등을 들어 공정하게 운영된다고 반박했다.

이번 AI 알고리즘 논란과 관련해 ‘이루다’ 챗봇 하나만의 문제가 아니라는 말이 나오는 이유다. 점점 더 AI 알고리즘을 활용한 서비스가 우리 생활 전반에 스며드는 가운데 공통된 기준을 마련하기 위한 공론화가 필요하다는 쪽에 무게가 실리고 있다. 정부는 지난해 12월 ‘인간성’을 최고 가치로 삼아 ‘AI 윤리기준’ 10대 원칙을 새로 마련하기도 했다. 다만 내용이 추상적인 만큼 보다 구체화할 필요가 있다는 지적이 제기된다.

AI 관련 업계 관계자는 "좋은 쪽으로 방향을 설정하고 학습시켜도 언제 어디로 튈지 모르는 게 AI 알고리즘이다"라며 "종교나 인종, 출생지 등 타고난 특성을 가지고 차별해선 안 되는 것처럼 기본적인 바운더리(경계선)에 대한 기준을 설정해야 한다"고 했다. 이 관계자는 또 "AI 알고리즘이 워낙 기술적인 영역이다 보니 보통 사람들은 어떤 과정을 통해 운영되는지 이해하기 힘든 측면이 있다"며 "영업비밀이라는 민감한 문제도 있겠지만 적정한 선에서 전문 기관을 통한 모니터링 등 AI에 대한 견제와 감시 장치도 마련될 필요가 있다"고 했다.

전창배 한국인공지능윤리협회 이사장은 "AI 알고리즘은 현재 기술 단계에서는 결코 중립적일 수가 없다"며 "편향된 데이터를 토대로 학습돼 구현될 가능성이 크며 설계하는 주체가 인간이기 때문에 가치관이 그대로 반영될 수밖에 없다"고 했다. 그러면서 "이렇게 중립적일 수 없는 AI 알고리즘을 검증 과정이나 절차적 가이드라인 없이 기업들이 무분별하게 활용하고, 스스로 ‘객관적이다’, ‘문제가 없다’고 주장하는 것은 잘못됐다"고 했다.

전 이사장은 "알고리즘뿐만 아니라 AI 윤리 전반에 대한 공론화가 필요한 시점이다"라며 "윤리적 기준 정립을 우선해서 세우고 이를 기반으로 범죄 목적의 AI 개발이나 악용 문제, 피해배상 등 필수적으로 규제해야 할 부분들을 뽑아 법률로 규제하는 것이 바람직하다"고 했다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?