“AI 훈련용 DB서 아동 성학대 사진 무더기 발견”

유지한 기자 2023. 12. 21. 13:55
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 훈련용 데이터베이스 레이온(LAION)-5B./레이온(LAION)-5B

인공지능(AI) 모델을 훈련하는 데 쓰이는 유명 데이터베이스에서 1000개 이상의 아동 성 학대 사진이 발견됐다.

20일(현지 시각) 워싱턴포스트(WP)에 따르면 스탠퍼드대 인터넷 감시소(Observatory)는 보고서를 통해 유명 오픈소스 데이터베이스 ‘레이온(LAION)-5B’에서 최소 1000장의 아동 성 학대 사진을 확인했다고 발표했다.

WP는 “AI 이미지가 소수의 사진만 훈련하면 되는 경우가 많다는 점을 감안할 때 훈련 데이터에 1000개가 넘는 아동 성 학대 사진이 있다는 것은 우려스럽다”라고 했다. 실제로 최근 AI를 이용한 성 착취물 제작이 사회적 문제로 떠오르고 있는 상황이다. 스탠퍼드대 인터넷 감시소의 최고 기술자 데이비드 티엘은 “AI가 기본적으로 이들 이미지를 활용해 아동 성 학대와 같은 콘텐츠를 제작할 수 있다”고 말했다. AI로 아동의 얼굴을 성인 몸에 붙이는 등 불법적 이미지를 손쉽게 만들어낼 수 있다는 것이다.

스탠퍼드대 연구팀은 이미지 데이터베이스를 구축할 때 소셜미디어, 성인용 비디오 사이트 등 인터넷에 공개된 사진을 가져오는 과정에서 실수가 있었던 것으로 추정한다. 수십억 규모의 데이터 베이스 가운데 사진 1000여장은 극히 일부일 수 있지만, 악용될 우려는 배제할 수 없다고 전문가들은 보고 있다.

레이온 측은 “안전성을 확보하기 위해 문제가 되는 이미지를 제거하는 작업중에 있다”고 밝혔다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?