인공지능윤리협 "챗봇 '이루다' 서비스 중단 촉구.. 개선 후 재출시해야"

박현익 기자 2021. 1. 11. 15:29
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

성희롱 대상이 되거나 혐오, 차별 발언 등으로 논란이 된 인공지능(AI) 챗봇 '이루다'와 관련해 한국인공지능윤리협회(이사장 전창배)는 "AI 기업들이 AI 제품 출시 전 AI 윤리 가이드라인을 자율적으로 준수하고 검증받을 것을 촉구한다"고 11일 밝혔다.

협회는 이어 AI 관련 개인정보 유출에 대해서도 "이번 사례에서 개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 AI 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었다"며 "AI 윤리 가이드라인을 지키지 못하고 출시한 챗봇 서비스에 대해 협회는 서비스 중단을 요청하며 추후 개선해서 다시 재출시하기를 촉구한다"고 했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 챗봇 ‘이루다’. /스캐터랩

성희롱 대상이 되거나 혐오, 차별 발언 등으로 논란이 된 인공지능(AI) 챗봇 ‘이루다’와 관련해 한국인공지능윤리협회(이사장 전창배)는 "AI 기업들이 AI 제품 출시 전 AI 윤리 가이드라인을 자율적으로 준수하고 검증받을 것을 촉구한다"고 11일 밝혔다.

협회는 "이번 AI 챗봇 사례에서는 데이터의 정제과정과 선별작업이 제대로 이뤄지지 않아 동성애와 장애인, 임산부 등에 대한 편향된 결과를 그대로 노출했다"며 "AI 기업은 기계학습 알고리즘을 적용할 경우 신뢰할 수 있고 편향적이지 않으며 합법적인 데이터를 선별하기 위해 노력해야 한다"고 했다. 또 AI 제품과 서비스 출시 전 충분히 반복된 품질검사를 거치고 중립적인 기관을 통한 검수와 검증을 거쳐야 한다고 강조했다.

협회는 이어 AI 관련 개인정보 유출에 대해서도 "이번 사례에서 개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 AI 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었다"며 "AI 윤리 가이드라인을 지키지 못하고 출시한 챗봇 서비스에 대해 협회는 서비스 중단을 요청하며 추후 개선해서 다시 재출시하기를 촉구한다"고 했다.

협회는 AI의 오용, 악용에 대해서도 우려를 나타냈다. 협회는 "이번 AI 챗봇에 대한 사용자의 성적 도구화, 성희롱 등의 문제는 법적 문제는 없더라도 윤리적인 문제는 분명히 있다"며 "성적 도구화, 학대 행위 자체가 잘못됐기 때문에 그러한 행위를 AI 챗봇에 죄의식 없이 하게 되면 결국 인간성 상실로 이어지고 실제 인간에게도 그러한 행위를 할 가능성이 커진다"고 했다.

협회는 "AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있으며 이용자들의 오용, 악용 사례도 지속 나타나는 상황이 반복되고 있다"며 "이번 AI 챗봇 논란을 계기로 국내 AI 기술과 반드시 가야하는 AI 윤리의 중요성과 당위성이 강조되는 계기가 되길 바란다"고 했다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?