AI에 아동 성착취 이미지 학습?...수천장 발견해 삭제
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
인공지능(AI) 학습에 쓰이는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 포함된 사실이 발견됐다.
그런데 이 데이터베이스에 포함된 아동 성 착취 이미지를 AI가 학습하면 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다.
실제 아동 성 착취 이미지가 아니더라도 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다는 주장이다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
인공지능(AI) 학습에 쓰이는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 포함된 사실이 발견됐다. 전문가들은 이 사실을 발견하고 이미지 삭제 조치를 했다.
30일(현지시간) AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대와 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2000개 이상을 삭제했다.
LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스다. 그런데 이 데이터베이스에 포함된 아동 성 착취 이미지를 AI가 학습하면 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다. 실제로 최근 AI를 이용한 이미지 생성 사이트에서 아동을 대상으로 한 딥페이크 성범죄가 늘어나고 있다. AI로 인한 딥페이크 이슈는 세계적인 문제로 대두죈 상황이다.
앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 1000개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 내놓은 바 있다. 당시 보고서의 책임 저자인 데이비드 티엘은 LAION의 아동 성 착취 이미지 삭제를 환영했지만, 다음 조치도 이어져야 한다고 지적했다. 실제 아동 성 착취 이미지가 아니더라도 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다는 주장이다. 한편 전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고, 제거하기 위한 규약을 마련해야 한다는 주장을 펼치고 있다. 팽동현기자 dhp@dt.co.kr.
Copyright © 디지털타임스. 무단전재 및 재배포 금지.
- "임신 희망 갖게 됐다"…자궁 없이 태어난 20대 여성, 무슨 병 앓길래
- "치과에서 사랑니 빼다 17살 아들 숨졌다"…일본이 `발칵`
- "BJ과즙세연 옆에 있던 사람 맞나"…방시혁, 반쪽 된 모습 공개
- "얘들아 여기서 놀아"…매장에 돗자리 깔고 아이들 놀게 한 부모들
- "시끄럽다" 훈계에…60대 경비원 폭행하고 영상 SNS 올린 10대 2명 징역형 구형
- "김영선 좀 해줘라" 尹대통령-명태균 녹취록 공개 파장… 대통령실 "공천 지시 아냐, 그저 좋게
- 생산·소비 `동반 추락`… 설비투자 홀로 8.4% 반등
- `합병 SK이노` 1일 출범…무자원 산유국서 `친환경` 에너지강국 도약 이정표
- "기술혁신이 ESG"… AI로 고령화 해결 나선 제약바이오기업들
- "가계대출 총량규제 맞춰라"… 신규억제 넘어 중도상환 유도하는 은행