AI 챗봇 '이루다' 잠정 중단.."카톡 대화 활용 고지 안해 죄송"

김민선 기자 2021. 1. 11. 22:37
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

혐오 발언 필터링 미진 사과..서비스 2주만에 중단

(지디넷코리아=김민선 기자)인공지능(AI) 챗봇 '이루다' 개발사 스캐터랩 측이 최근 이 챗봇에서 발견된 일부 혐오와 차별 대화 및 이용자가 제공한 데이터를 남용해 제작된 점에 대해 사과하며 서비스를 일시 중단한다고 밝혔다.

지난달 22일 정식 출시된 이루다는 약 2주간 동안 75만명에 가까운 이용자들로부터 사용되는 등 긍정적인 반응을 이끌어 냈으나, 최근 혐오·차별 대화 사례가 발견되면서 여론의 뭇매를 맞고 있다.

더욱이 스캐터랩이 운영하는 또다른 서비스인 '연애의 과학'을 통해 수집된 이용자들의 카카오톡 대화를 챗봇 개발에 활용하면서 이용자에게 특별히 고지하지 않은 점, 또한 이들 데이터를 제대로 정제하지 않은 채 사용한 정황이 의심되는 점이 추가로 문제 제기됐다.

이루다.(사진=이루다 페이스북 페이지)

이에 스캐터랩 측은 11일 입장문을 발표해 "이루다가 특정 소수집단에 대해 차별적인 발언을 한 사례가 생긴 것에 대해 진심으로 사과드린다"며 또한 "사전에 동의가 이루어진 개인정보취급방침의 범위 내에서 활용한 것이지만, 연애의 과학 사용자분들께서 이 점을 명확히 인지할 수 있도록 충분히 소통하지 못한 점에 대해서 책임을 통감하며 진심으로 사과드린다"고 밝혔다.

이어 "스캐터랩은 일정 시간 서비스 개선 기간을 가지며 더 나은 이루다로 찾아뵙고자 한다"고 덧붙였다.

먼저 혐오와 차별에 관한 부적절한 대화를 제공한 점에 대해 지난해 6개월 간의 베타테스트 중 필터링 작업을 진행했으며, 앞으로도 지속적으로 개선할 것이라고 밝혔다.

스캐터랩은 " 특정 집단을 비하는 호칭이나 혐오 표현의 경우, 베타테스트 기간 동안 발견 즉시 별도의 필터링을 진행했다고 기존에 알려진 사례들은 이미 개선을 완료했다"며 "새롭게 발견되는 표현과 키워드를 추가해 차별이나 혐오 발언이 발견되지 않도록 지속적으로 개선 중"이라고 밝혔다.

한 온라인 커뮤니티 이루다 채널에서는 이루다를 상대로 성희롱 발언을 시도하는 이용자들이 발견된다. (사진=이루다 채널 캡쳐)

아울러 서울신문 등 타 매체 보도에 따르면 주소 동, 호수 등 개인정보가 그대로 노출된 사례도 발견됐다. 이에 대해 회사 측은 사전에 비식별화가 진행된 것이 분명하며, 따로 사실성을 주기 위해 다른 숫자 등으로 대체 됐는지 등에 대해선 아직 공식답변을 주지 못한다고 밝혔다. 숫자 정보와 이메일에 포함될 수 있는 영문 데이터는 사전에 삭제했다고 재차 강조했다.

입장문에서는 "데이터 활용 시 사용자의 닉네임, 이름, 이메일 등의 구체적인 개인 정보는 이미 제거 돼 있다"며 "전화번호 및 주소 등을 포함한 모든 숫자 정보, 이메일에 포함될 수 있는 영어 등을 삭제해 데이터에 대한 비식별화 및 익명성 조치를 강화해 개인을 특정할 수 있는 정보는 유출되지 않았다"고 밝혔다.

이어 "향후로는 데이터 사용 동의 절차를  명확하게 하고 식별이 불가능한 정보라도 민감해 보일 수  있는 내용에 대해서는 지속적인 알고리즘 개선을 통해 보완하겠다"고 덧붙였다.

일각에서는 스캐터랩이 이루다 서비스를 중단한 뒤 재출시해야 한다는 목소리도 있었다.

사측은 서비스 일시 중단에 대해 알리며  "우리 회사는 한국어 자연어 이해 기술을 활용한 인공지능(AI) 챗봇을 서비스하고 있는 청년 스타트업"이라며 "우리는 AI가 5년 안에 인간 수준에 가까운 대화를 할 수 있다고 믿는다"고 설명했다.

또한 "이루다는 이제 막 사람과의 대화를 시작한 어린아이 같은 AI로, 배워야 할 점이 아직 많다"며 "이 과정에서 이루다는 학습자와의 대화를 그대로 습득하는 것이 아니라, 적절한 답변이 무엇인지, 더 좋은 답변은 무엇인지에 대한 판단을 함께 학습하도록 할 것"이라고 강조했다.

이어 "이번 학습을 통해 만들게 될 편향 대화 검출 모델은 모든 분들이 사용하실 수 있게 공개할 계획"이라며 "한국어 AI 대화 연구 및 AI 제품, 그리고 AI 윤리 발전에 유용하게 쓰일 수 있었으면 좋겠다"고 덧붙였다.

김민선 기자(yoyoma@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?