AI 머신러닝 데이터에서 아동 성착취 사진 2000장 삭제...'딥페이크 성범죄 악용 우려'

김지완 2024. 8. 31. 09:24
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 머신러닝 데이터베이스에서 아동 성착취 사진 2000장이 삭제됐다.

이같은 조치는 최근 AI를 이용한 아동 딥페이크 성범죄가 증가했기 때문이다.

이들은 아동 성 착취 이미지가 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다고 한목소리를 내는 이유다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

기사 내용과 무관함(사진=게티이미지)

[이데일리 김지완 기자] 인공지능(AI) 머신러닝 데이터베이스에서 아동 성착취 사진 2000장이 삭제됐다. 이들 사진이 딥페이크 성범죄에 악용될 수 있단 우려 때문이다.

30일 AP통신에 따르면, 오픈 소스 데이터 셋을 만드는 비영리 단체인 ‘레이온’(LAION)은 미국 스탠퍼드대, 캐나다·영국 기관들과 협업해 아동 성 착취 이미지 2000여 장을 삭제했다.

이같은 조치는 최근 AI를 이용한 아동 딥페이크 성범죄가 증가했기 때문이다.

전문가들은 딥페이크 영상이 또 다른 아동 학대로 이어질 수 있다고 경고했다. 이들은 아동 성 착취 이미지가 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다고 한목소리를 내는 이유다.

김지완 (2pac@edaily.co.kr)

Copyright © 이데일리. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?