'혐오문화' 그대로 배운 AI 이루다.."서비스 잠시 중단"

김나한 기자 2021. 1. 11. 21:18
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[앵커]

방금 들어온 소식입니다. 인간과 대화를 나누는 인공지능 이루다를 개발한 업체가 서비스를 잠시 중단하기로 했습니다. 논란이 커지자 서비스를 개선하겠다고 한 겁니다. 앞서 사이버 성폭력을 당한데 이어 이번엔 이루다가 장애인 비하를 비롯한 혐오가 섞인 말을 내뱉은 것도 문제가 됐습니다. 또 업체가 개발 과정에서 허락 없이 연인들의 대화를 가져다 쓰면서 개인정보가 유출됐다는 비난도 나옵니다.

김나한 기자입니다.

[기자]

'루다'가 나눈 대홥니다.

외국인 노동자는 무능력하다고, 여성전용 주차장은 안 좋은 공간이라고 합니다.

사이버 성폭력 피해를 당하던 루다가 소수자들에겐 혐오 섞인 말을 뱉는 겁니다.

비난이 쏟아지자 지하철 임신부석이나 장애인에 대한 비하 반응은 고쳐졌습니다.

하지만 혐오 발언 사례가 계속 나오고 있습니다.

[김종윤/스캐터랩 대표 : (루다는) 사용자가 어떤 말을 하냐에는 결국 영향을 받기 때문에, 궁극적으로는 사회 보편적인 가치를 이해할 수 있도록 학습을 시킬 계획입니다.]

개발 방식도 논란입니다.

루다가 하는 말은 100억 건의 실제 메신저 대화가 바탕입니다.

루다를 개발한 회사가 연인들의 대화를 받아서 친밀도를 분석하는 앱을 운영하면서 모은 겁니다.

['연애의과학' 이용자 : ('연애의과학'에서) 둘만 알아들을 수 있는 비밀 언어를 자주 사용을 했는데, (루다에게 그 언어를 입력하면) 단어가 의미하는 답변이 아니라, 저희 둘만 알아들을 수 있는 그런 답변이 출력되는 걸 보고 (대화가 유출됐다고 생각했죠.)]

아파트 호수나 계좌 번호 같은 개인정보까지 튀어나왔습니다.

개발 업체는 연애 앱 운영 당시 이용자들에게 메신저 대화를 다른 서비스 개발에 쓸 수 있다고 알렸다고 합니다.

[이수영/KAIST 전기전자공학부 명예교수 : AI 데이터를 프라이버시 이슈 때문에 익명화를 다 시켜야 하고요, 본인한테 (사용한다는) 승낙을 받아야 하죠.]

앱 가입자뿐만 아니라 대화 상대의 정보까지 담겨 있어서 더 문젭니다.

개인정보보호위원회는 조사에 들어갔습니다.

해당 연애 앱 이용자들은 개발 업체를 상대로 단체 소송 등을 의논 중입니다.

(인턴기자 : 남예지)

Copyright © JTBC. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?