AI 학습 데이터에서 아동 성 착취 이미지 삭제

김도원 2024. 8. 31. 09:21
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

비영리 오픈소스 이미지 데이터베이스 'LAION'이 인공지능 프로그램 학습에 사용되는 자료에서 아동 성 착취 이미지 2천여 장을 삭제했다고 AP통신이 보도했습니다.

LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스로, 자료에 포함된 아동 성 착취 이미지가 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다는 지적이 나왔습니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

비영리 오픈소스 이미지 데이터베이스 'LAION'이 인공지능 프로그램 학습에 사용되는 자료에서 아동 성 착취 이미지 2천여 장을 삭제했다고 AP통신이 보도했습니다.

LAION은 미국 스탠퍼드대와 캐나다, 영국 기관들과 함께 작업해 이같은 조치를 취했습니다.

LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스로, 자료에 포함된 아동 성 착취 이미지가 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다는 지적이 나왔습니다.

앞서 스탠퍼드대는 지난해 12월 LAION에서 아동 성 착취 이미지를 최소 천 장 이상 발견했다고 발표했습니다.

YTN 김도원 (dohwon@ytn.co.kr)

※ '당신의 제보가 뉴스가 됩니다'

[카카오톡] YTN 검색해 채널 추가

[전화] 02-398-8585

[메일] social@ytn.co.kr

[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]

Copyright © YTN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?