"이루다 서비스 중단해야" 인공지능윤리협회 첫 성명 나와

최민영 2021. 1. 11. 19:06
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

젠더 편향과 개인정보 유출 논란을 겪고 있는 스캐터랩의 인공지능 '이루다' 서비스를 중단해야 한다는 첫 성명이 나왔다.

이루다가 인공지능 윤리 가이드라인을 제대로 지키지 않은 서비스라는 것이 그 이유다.

학계와 산업계로 구성된 비영리단체 '한국인공지능윤리협회'는 11일 성명을 내어 이루다 서비스의 중단을 촉구했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

젠더 편향과 개인정보 유출 논란을 겪고 있는 스캐터랩의 인공지능 ‘이루다’ 서비스를 중단해야 한다는 첫 성명이 나왔다. 이루다가 인공지능 윤리 가이드라인을 제대로 지키지 않은 서비스라는 것이 그 이유다.

학계와 산업계로 구성된 비영리단체 ‘한국인공지능윤리협회’는 11일 성명을 내어 이루다 서비스의 중단을 촉구했다. 이들은 지난 2019년 11월 발표했던 ‘인공지능 윤리 헌장’을 바탕으로 “인공지능 윤리 가이드라인을 지키지 못하고 출시한 인공지능 챗봇 서비스에 대해 서비스 중단을 요청한다”며 “추후 인공지능 윤리 가이드라인을 확인하고 적용하고 개선한 후 재출하기를 촉구한다”고 밝혔다. 이루다의 편향성 검증이 부족했고, 개발사가 개인정보 이용 절차를 제대로 지키지 않았다는 점이 주된 근거로 꼽혔다.

협회는 “이번 인공지능 챗봇 사례(이루다)에서는 데이터의 정제과정과 선별작업이 제대로 이루어지지 않아 인공지능 챗봇이 동성애와 장애인, 임산부 등에 대한 편향된 결과를 그대로 노출했다”며 “인공지능은 기계학습 과정에서 인간이 예측하기 어렵고 설명하기 어려운 결과물을 내놓기 때문에, 출시 전 일반 제품과는 다른 보다 강화된 품질 검사와 충분히 반복된 시뮬레이션을 하여 문제점들을 찾고 개선한 후 출시해야 하지만 이번 사례에서는 그렇지 못한 것으로 보인다”고 말했다. 이들이 2019년에 발표한 인공지능 윤리 헌장은 “인공지능 기업은 기계 학습 알고리즘을 적용할 경우, 신뢰할 수 있고, 편향적이지 않으며, 합법적인 데이터를 선별하기 위해 노력해야한다”고 명시하고 있다.

이들은 또 “개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 인공지능 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었고, 개인은 카카오톡 대화내용의 제출에 동의했을지라도, 카카오톡 대화내용 안의 대화 상대방들은 동의하지 않았기 때문에 대화 상대방의 대화 내용과 개인정보를 그대로 인공지능 학습에 이용한 것은 분명한 문제의 소지가 있다”고도 했다.

인공지능의 개발과 활용을 둘러싼 윤리에 대해 사회 전체의 관심도 촉구했다. 이들은 “인공지능의 오용과 악용을 막기 위한 교육을 청소년 시기부터 교육하고, 새로운 인공지능 윤리 이슈에 대해 모든 시민을 대상으로 하는 지속적은 교육이 필요하다”며 “인공지능 기술은 인간의 편익과 행복을 위한 기술이지만 잘못 개발되거나 사용될 때의 인간에게 미치는 위험성과 역작용이 막대할 수 있으므로 정부, 기업, 학계, 시민 등 모든 관련 주체들이 적극 함께해 주기를 요청한다”고 덧붙였다.

최민영 기자 mymy@hani.co.kr

Copyright © 한겨레. All rights reserved. 무단 전재, 재배포 및 크롤링 금지.

이 기사에 대해 어떻게 생각하시나요?