AI 학습 데이터에서 ‘아동 성착취물’ 2000장 넘게 나왔다

노정연 기자 2024. 8. 31. 13:16
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

성범죄 우려에 대거 삭제
AI(인공지능)문자 이미지. 로이터

인공지능(AI) 학습 훈련에 데이터베이스에서 아동 성착취 관련 이미지들이 대거 삭제됐다. 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있다는 우려에서다.

30일(현지시간) AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 ‘LAION’은 최근 미국 스탠퍼드대를 비롯해 캐나다·영국 기관들과 협업해 데이터베이스에서 아동 성착취 이미지 2000개 이상을 삭제했다. LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해 AI에 제공하는 데이터베이스다.

문제는 데이터베이스에 존재하는 아동 성 착취 이미지가 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다는 것이다.

실제로 최근 AI를 이용한 이미지 생성 사이트에서 아동을 대상으로 한 딥페이크 성범죄가 증가했다. 앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 1000개 이상의 아동 성착취 이미지를 발견했다는 보고서를 발표하기도 했다.

보고서 책임 저자인 데이비드 티엘은 LAION의 아동 성착취 이미지 삭제를 환영했지만, 다음 조치도 이어져야 한다고 지적했다. 실제 아동 성착취 이미지가 아니더라도 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다는 것이다.

전문가들은 아동 성착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고, 제거하기 위한 규약을 마련해야 한다고 주장하고 있다.

노정연 기자 dana_fm@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?