AI 학습 DB서 아동 성학대 이미지 1000장 발견

실리콘밸리=윤민혁 특파원 2023. 12. 21. 06:26
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

초대형 인공지능(AI) 학습에 사용되는 데이터베이스에서 1000여 개의 아동 성 학대 이미지가 발견됐다.

20일(현지 시간) 미국 스탠퍼드대학 인터넷 감시소는 이미지 데이터베이스 '레이온(LAION)-5B'에서 1008장의 아동 성 학대 사진이 발견됐다고 밝혔다.

레이온-5B는 50억 개 이상 이미지가 담긴 AI 학습용 데이터베이스다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

美 스탠퍼드대 연구 결과
스테이블 디퓨전에도 쓰여
이미지투데이 제공
[서울경제]

초대형 인공지능(AI) 학습에 사용되는 데이터베이스에서 1000여 개의 아동 성 학대 이미지가 발견됐다. 소아성애자들이 AI로 아동 착취 이미지를 양산하는 가운데 학습자료조차 ‘오염’된 것이 확인되며 AI의 위험성에 대한 경각심이 더욱 커지고 있다.

20일(현지 시간) 미국 스탠퍼드대학 인터넷 감시소는 이미지 데이터베이스 ‘레이온(LAION)-5B’에서 1008장의 아동 성 학대 사진이 발견됐다고 밝혔다. 레이온-5B는 50억 개 이상 이미지가 담긴 AI 학습용 데이터베이스다. 인기 이미지 생성 AI인 ‘스테이블 디퓨전’ 등의 학습에 쓰였다. 스탠퍼드대는 “이 데이터를 기반으로 학습한 AI가 현실적인 아동학대 콘텐츠를 생성할 수 있는 잠재력을 지닌다”고 지적했다.

레이온-5B는 독일 소재 비영리단체 레이온이 2022년 공개한 데이터베이스다. 레이온 측은 불법 콘텐츠에 ‘무관용 원칙’을 갖고 있다며 즉각 데이터베이스를 삭제하고 안전성을 확인 중이다. 스테이블 디퓨전 측도 “AI 문제 행동을 최소화하기 위해 데이터베이스를 필터링한 후 학습했다”고 항변했다.

그러나 이미 이 데이터를 통해 학습된 AI에서 문제가 되는 부분을 삭제하는 데는 한계가 있어 보인다. AI가 이미지를 생성하는 데는 사진 몇 장이면 충분하고, 개발자들조차 생성형 AI의 내부 작동 구조를 모두 파악하지 못하는 탓이다. 블룸버그는 “스테이블 디퓨전 2.0은 필터링한 자료로 교육 받았지만 1.5 버전은 여전히 성적으로 노골적인 이미지를 생성하고 있다”며 “AI에서 아동 성착취 이미지를 제거하더라도 ‘아동’과 ‘성’이라는 두 개념을 결합해 불법 이미지를 만들어낼 수 있다”고 전했다.

실리콘밸리=윤민혁 특파원 beherenow@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?