"이루다 서비스 중단해야" 인공지능윤리협회 성명

최민지 기자 2021. 1. 11. 18:28
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[경향신문]


인공지능(AI) 윤리와 개인정보 유출 등 논란을 빚고 있는 AI 챗봇 ‘이루다’에 대해 운영 중단을 촉구하는 학계 성명이 나왔다.

한국인공지능윤리협회는 11일 오후 ‘AI 기업들에게 AI 제품 출시 전 AI 윤리 가이드라인의 자율적 준수와 검증을 촉구한다’는 제목의 성명을 내고 이같이 밝혔다. 이 협회는 AI의 안전하고 윤리적인 사용을 목적으로 2019년 설립된 비영리 단체로 윤리학·철학·컴퓨터 공학 등 학계 전문가 등이 소속돼 있다.

협회는 이날 성명에서 “‘인공지능 윤리 헌장’ 제정 이래 AI의 편향성과 오류, 안전성, 악용 문제, 개인정보 유출문제, 킬러로봇 문제 등 인공지능 윤리의 5대 문제를 지속적으로 제기해 왔으며 해결을 위한 노력과 전파 활동을 해오고 있다”며 글을 시작했다.

이어 “하지만 아직 AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있으며, AI 제품과 서비스를 사용하는 이용자들에도 오용, 악용하는 사례들이 지속 나타나는 상황이 반복되고 있다”고 지적했다.

이루다가 보여준 소수자·약자 혐오 등 사회 편향성에 대해 협회는 “신뢰할 수 없고 편항적이고 불법적인 데이터로 만들어진 AI 제품과 서비스는 인간에게 잘못된 인식을 심어주는 등 악영향을 미친다”고 밝혔다. 인공지능 제품과 서비스가 출시 전 충분히 반복된 품질 검사를 거치고, 중립적인 기관을 통해 검수와 검증을 거친 뒤 출시해야 하지만 이루다는 그렇지 못했다고 판단했다.

협회는 또 이루다를 통해 이용자의 개인정보가 유출됐다는 의혹에 대해 “AI 챗봇 사례에서는 개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 AI 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었고, 개인은 카카오톡 대화내용의 제출에 동의했을지라도, 카카오톡 대화내용 안의 대화 상대방들은 동의하지 않았기 때문에 대화 상대방의 대화 내용과 개인정보를 그대로 AI 학습에 이용한 것은 분명한 문제의 소지가 있다”고 지적했다.

그러면서 협회는 “인공지능 윤리 가이드라인을 지키지 못하고 출시한 AI 챗봇 서비스에 대해 서비스 중단을 요청하며, 추후 AI 윤리 가이드라인을 확인, 적용, 개선한 후 재출시하기기를 바란다”고 촉구했다.

일부 이용자가 이루다를 성적 도구화하고 성희롱 하는 등 악용한 데 대해서도 윤리적인 문제가 있다는 의견을 냈다. 협회는 “AI 챗봇이든 로봇이든 캐릭터든 그 대상은 논외로 하더라도, 성적 도구화하고 학대하는 행위 자체가 잘못된 것”이라며 “그러한 행위를 AI 챗봇에 죄의식 없이 하게 되면 결국 인간성 상실로 이어져 실제 인간에게도 그러한 행위를 할 가능성이 커진다”고 우려했다. 이어 “이번 AI 챗봇의 주사용자 층이 10대에서 20대의 아직 이성적으로 미성숙한 청소년들이 많이 이용한다면, 이들에게 분명히 잘못된 행위라는 점을 인식시키고 교육시켜야 한다”고 설명했다.

최민지 기자 ming@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?