아동 성학대 ‘역겨운 데이터’ 보고 배운 AI…“대체 뭘 그리려고”

원호섭 기자(wonc@mk.co.kr) 2023. 12. 21. 09:51
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

생성형 이미지 인공지능(AI) 학습에 사용된 데이터에비스에서 아동 성 학대 이미지가 발견됐다.

21일 외신 등을 종합하면 스탠퍼드 인터넷 감시소(Stanford Internet Observatory)는 '스테이블 디퓨전'과 같은 AI 이미지 학습을 시키는 데이터베이스 '라이온'에서 3200장 이상의 아동 성 학대 의심 이미지를 발견했다고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 학습용 이미지 데이터베이스 ‘라이온’
아동 성학대 이미지 1000장이상 확인돼
라이온 “불법 콘텐츠 무관용…삭제했다”
이미 학습한 AI, 노골적 이미지 생성가능
생셩형AI 이미지 플랫폼 미드저니로 만든 그림. 명령어로 “AI를 악용하는 사례”를 입력했다. [사진=미드저니]
생성형 이미지 인공지능(AI) 학습에 사용된 데이터에비스에서 아동 성 학대 이미지가 발견됐다.

21일 외신 등을 종합하면 스탠퍼드 인터넷 감시소(Stanford Internet Observatory)는 ‘스테이블 디퓨전’과 같은 AI 이미지 학습을 시키는 데이터베이스 ‘라이온’에서 3200장 이상의 아동 성 학대 의심 이미지를 발견했다고 밝혔다. 스탠퍼드인터넷 감시소는 캐나다 아동보호 센터 등 여러 기관과 협력을 통해서 이러한 작업을 수행했는데 의심 사진 중 1000장 이상이 아동 성 학대 자료로 확인됐다.

스탠퍼드 인터넷 감시소의 발표는 지난 20일(현지 시각) 있었는데, 라이온은 연구 결과가 발표되기 하루 전 데이터 세트를 일시적으로 삭제했다. 비영리 대규모 AI 오픈 네트워크(Large-scale Artificial Intelligence Open Network)를 뜻하는 라이온은 성명을 통해 “불법 콘텐츠와 관련해 무관용 정책을 시행하고 있다. 현재 데이터 세트를 제했다”라고 밝혔다.

라이온의 이미지 학습용 데이터 베이스. [사진 제공=라이온]
라이온 데이터가 약 58억 장인 만큼 이번에 발견된 성 학대 사진은 일부에 불과하지만 스탠퍼드 인터넷 감시소는 “이것이 AI 도구가 해로운 결과를 내는 데 영향을 미치고 피해자의 학대가 커질 수 있다”라고 지적했다. 이어 “이러한 이미지로 AI는 가짜 아이들의 사실적이고 노골적인 이미지를 더 쉽게 생성할 수 있다”라고 덧붙였다. 라이온은 해당 사진을 삭제했지만, 이전 버전을 학습한 AI는 여전히 관련 이미지를 만들 수 있다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?