“AI 모델 학습 데이터에 아동 성 학대 사진 1000장 발견”

성윤수 2023. 12. 21. 10:18
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 학습에 사용되는 유명 데이터베이스에 1000개가 넘는 아동 성적 학대 사진이 발견됐다는 주장이 제기돼 논란이 일고 있다.

20일(현지시간) 워싱턴포스트에 따르면 미국 스탠퍼드대 인터넷 감시소(Observatory)는 최근 발표한 보고서에서 '레이온(LAION)-5B'라는 인기 오픈소스 이미지 데이터베이스에서 최소 1008장의 아동 성적 학대 사진을 발견했다고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

“AI가 이미지 활용, 아동 성 학대 콘텐츠 제작 가능” 지적
국민일보DB. 기사 내용과 직접 관련이 없습니다.

인공지능(AI) 학습에 사용되는 유명 데이터베이스에 1000개가 넘는 아동 성적 학대 사진이 발견됐다는 주장이 제기돼 논란이 일고 있다.

20일(현지시간) 워싱턴포스트에 따르면 미국 스탠퍼드대 인터넷 감시소(Observatory)는 최근 발표한 보고서에서 ‘레이온(LAION)-5B’라는 인기 오픈소스 이미지 데이터베이스에서 최소 1008장의 아동 성적 학대 사진을 발견했다고 밝혔다.

레이온-5B는 텍스트를 이미지로 변환해 주는 AI 모델로, 인기 이미지 생성 AI인 ‘스테이블 디퓨전’ 등에 사용된 바 있다.

레이온 측은 “안전성 확보를 위해 문제가 되는 이미지를 제거하고 있다”고 했다. 다만 몇 장만의 사진 학습만으로도 AI가 이미지를 만들어낼 수 있다는 점에서 아동 성 학대 사진이 1000개 이상 포함돼 있는 상황에 대한 우려의 목소리가 나오고 있다.

보고서를 발표한 연구소의 최고기술자 데이비드 티엘은 “AI가 기본적으로 해당 이미지를 이용해 아동 성 학대와 같은 콘텐츠를 제작할 수 있다”고 전했다. 이어 소아성애자들이 이전보다 불법 이미지를 쉽게 만들 수 있으며, 그 양도 늘고 있다고도 지적했다.

문제의 이미지들이 어떻게 ‘레이온-5B’의 데이터베이스에 포함됐는지는 구체적으로 알려지지 않았다. 다만 연구진은 데이터베이스 제작자들이 소셜미디어나 성인용 비디오 사이트, 공개된 인터넷에서 이미지를 수집하면서 실수로 추가됐을 가능성이 있다고 언급했다.

보고서는 아동 성 학대 콘텐츠와 당사자의 동의를 받지 않은 음란물 등을 데이터베이스에서 걸러내고 제거하기 위한 규약(프로토콜)을 마련해야 한다고 강조했다.

성윤수 기자 tigris@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지

Copyright © 국민일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?