'이루다' AI 윤리 논란, 예견된 人災..MS 챗봇 '테이' 4년전 퇴출

박현익 기자 2021. 1. 12. 15:50
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

2016년 3월 마이크로소프트(MS)가 인공지능(AI) 챗봇(채팅 로봇) '테이'를 선보였다가 출시 16시간 만에 서비스를 중단했다.

이재웅 전 대표도 "이루다를 계기로 AI 챗봇과 면접·채용, 뉴스추천 등이 인간에 대한 차별, 혐오를 하거나 조장하는 건 아닌지 사회적으로 점검하고 포괄적 차별금지법 제정 등을 통해 AI를 학습시키는 우리 인간들의 규범과 윤리도 보완했으면 좋겠다"고 했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

MS, 구글, 아마존도 AI 편향성 논란
이루다 혐오 발언은 예견 가능한 문제
이대로면 제2의 ‘이루다’ 나온다
실효성 있는 윤리·법규범 마련 필요성

AI 챗봇 이루다. /스캐터랩

2016년 3월 마이크로소프트(MS)가 인공지능(AI) 챗봇(채팅 로봇) ‘테이’를 선보였다가 출시 16시간 만에 서비스를 중단했다. 이용자들과의 대화에서 학습한 내용을 기반으로 "대량학살을 지지한다" 등 각종 차별 발언과 비속어를 쏟아냈기 때문이다. 당시 피터 리 MS 부사장은 "다양한 조건에서 테스트를 진행했지만 일부 취약점이 공격당했다"면서 테이의 결함을 인정했다.

잘못된 학습으로 성희롱 대상이 되거나 차별·혐오 발언을 해 물의를 빚은 AI 챗봇 ‘이루다’를 두고 전문가들은 회사의 책임이 크다고 평가한다. 특히 혐오 문제는 이미 MS 사례 등을 통해 잘 알려진 바 있는 만큼 미연에 방지할 수 있었다고 지적한다. 그 자체로 중립성이 담보되지 않는 AI에 대해 이번 논란을 계기로 윤리적, 법적 규준(規準)을 마련해야 한다는 목소리에 무게가 실린다.

"혐오스럽다" "진짜 싫다" "징그럽다"며 동성애자, 흑인, 장애인 등 사회적 소수자에 대한 혐오 발언을 여과없이 내뱉던 이루다가 12일 서비스를 잠정중단했다. 이루다는 지난해 12월 23일 출시돼 그동안 50만명가량의 이용자와 대화를 나눴다. 하지만 이루다를 둘러싼 논란이 계속되자 개발사 스캐터랩은 "서비스 개선 후 더 나은 모습으로 찾아뵙겠다"고 했다. 혐오 발언과 관련해서는 "진심으로 사죄드린다"면서도 "(출시 전) 6개월간의 베타테스트를 통해 문제 방지를 위해 여러 조치를 취했다"고 했다. 회사 자체적으로도 특정 집단을 비하하는 발언을 막기 위해 사전에 준비를 했다는 것이다.

하지만 문제가 된 내용이 기본적으로 예측할 수 있는 수준을 크게 벗어난 게 아니기 때문에 회사가 충분한 주의를 기울였는가에 대한 의문은 계속 제기되고 있다. 포털 ‘다음’ 창업자인 이재웅 전 쏘카 대표도 앞서 논란이 처음 불거졌을 때 "사회적 합의에도 못 미치는 수준의 서비스를 제공한 회사의 문제다"라며 "기본적으로 차별과 혐오는 걸러냈어야 했다. 편향된 학습데이터라면 보완하거나 보정을 해서라도 제공하지 못하게 해야 한다"고 했다.

마이크로소프트의 인공지능(AI) 채팅봇 ‘테이(Tay)’ 트위터

MS 테이뿐만 아니라 AI의 편향성 논란은 다른 정보기술(IT) 기업들을 통해서도 꾸준히 제기돼 왔다. 지난 2018년 아마존은 회사 내부의 고용 패턴을 학습시킨 AI를 개발했다가 폐기했다. 이 AI가 채용 과정에서 여성을 배제했기 때문이다. 지난해 말에는 구글 AI 윤리기술 책임자였던 팀닛 게브루가 "구글의 AI 기술이 성적·인종적으로 편향됐다는 내용의 논문을 게재했다가 해고당했다"고 주장하며 논란이 일기도 했다.

/EPA·연합뉴스

이처럼 AI 자체로는 공정성, 중립성을 담보하기가 쉽지 않기 때문에 AI의 무분별한 학습을 규율할 사회적 합의가 필요하다는 필요성이 제기된다. 전창배 한국인공지능윤리협회 이사장은 "AI 윤리 문제에 대한 우리 기업들과 시민들의 인식은 해외 선진국들과 비교해 미흡한 상황이다"라며 "이러다 보니 AI 알고리즘과 관련한 위험성이 계속 존재할 수밖에 없다. 시점이 늦긴 했지만 공론화가 매우 필요한 시점이다"라고 했다.

이재웅 전 대표도 "이루다를 계기로 AI 챗봇과 면접·채용, 뉴스추천 등이 인간에 대한 차별, 혐오를 하거나 조장하는 건 아닌지 사회적으로 점검하고 포괄적 차별금지법 제정 등을 통해 AI를 학습시키는 우리 인간들의 규범과 윤리도 보완했으면 좋겠다"고 했다.

다만 AI 관련 업계에서는 이번 일로 AI를 바라보는 시각이 지나치게 규제 일변도로 치우칠까 우려하고 있다. 업계 한 관계자는 "한국은 AI 윤리가 미흡한 측면이 있지만 그만큼 AI 산업도 이제 막 태동하는 단계다"라며 "성급한 규제로 AI 산업 전체의 성장을 가로막아서는 안 될 것"이라고 했다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?