성범죄 악용 우려 커지는 AI… 학습 DB에 수천장 성 학대 이미지
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
고도화하는 인공지능(AI) 기술이 성범죄에 악용될 수 있다는 우려가 커지고 있다.
미국 스탠퍼드대 '인터넷 감시소'는 AI 오픈소스 데이터베이스 '레이온-5B'에서 아동 성 학대 이미지가 최소 1008장 발견됐다고 최근 발간한 보고서에서 밝혔다.
그러나 성능이 뛰어난 AI 모델은 단 몇 장의 이미지만 학습하고도 사용자 명령에 따라 부적절한 콘텐츠를 생산할 수 있다는 게 문제다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
고도화하는 인공지능(AI) 기술이 성범죄에 악용될 수 있다는 우려가 커지고 있다. AI 훈련에 사용되는 데이터에 아동 성 학대 이미지가 포함된 사례까지 나왔다.
미국 스탠퍼드대 ‘인터넷 감시소’는 AI 오픈소스 데이터베이스 ‘레이온-5B’에서 아동 성 학대 이미지가 최소 1008장 발견됐다고 최근 발간한 보고서에서 밝혔다. 보고서 저자인 데이비드 틸은 “AI 모델이 이미지를 기반으로 실제 아동 성 착취 장면과 비슷한 콘텐츠를 생산할 수 있다”고 말했다.
레이온-5B는 58억개에 달하는 이미지 데이터로 구성됐다. 데이터 총량에 비하면 1000여장은 일부다. 그러나 성능이 뛰어난 AI 모델은 단 몇 장의 이미지만 학습하고도 사용자 명령에 따라 부적절한 콘텐츠를 생산할 수 있다는 게 문제다.
영국의 ‘안전한 인터넷 센터’는 일부 학교로부터 학생들이 AI 이미지 생성 프로그램을 이용해 외설적인 콘텐츠를 만들고 있다는 내용의 보고를 받았다고 밝혔다. 센터는 “부적절한 이미지를 만들어 소유하거나 배포하는 것은 명백한 불법”이라고 강조했다. 미국 교육 서비스 업체 ‘RM 테크놀로지’가 학생 1000명을 대상으로 한 조사에서는 3분의 1가량이 부적절한 콘텐츠를 보기 위해 AI를 사용하고 있다고 답했다.
앞서 소셜미디어(SNS) 분석 업체 ‘그래피카’는 지난 9월 한 달간 2400만명이 AI를 이용해 ‘가짜 누드’ 사진을 만드는 딥페이크 웹 사이트에 방문했다고 전했다. 딥페이크 기술을 이용해 사진 속 사람이 마치 옷을 벗고 있는 것 같은 이미지를 만드는 사이트다.
수많은 데이터를 학습해 사용자가 원하는 결과를 내는 AI 기술이 성범죄로 이어질 가능성은 커지고 있다. 그러나 AI 데이터 품질을 보장하는 기술 개발은 요원하다는 지적이 나온다. 김명주 서울여대 바른AI연구센터장은 24일 “AI 모델이 부적절한 이미지를 학습하는 걸 원천 차단할 수 있는 기술은 아직 없다”며 “이미지를 걸러내는 자동화 수단이 있긴 하지만, 기술이 완벽하지 않다”고 말했다.
조민아 기자 minajo@kmib.co.kr
GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지
Copyright © 국민일보. 무단전재 및 재배포 금지.
- 복도 한가운데 ‘중문’… 복도식 아파트 ‘리모델링’ 논란
- “홀로서기 해보려고 한다”…제니가 설립한 ‘이 회사’
- 실내흡연 지적했다고 스무살女 맥주병 가격 ‘전치8주’
- 경기도민의 비애?…서울로 출근 67분 걸려, 2030 최다
- AI 데이터에 아동 성학대 이미지가…성범죄 악용 가능성
- 연말 ‘꾸안꾸룩’ 난 ‘립틴트’로 완성한다
- ‘폭설’ 제주도 도로에 등장한 ‘스키남’ [영상]
- 수능에서 ‘심화수학’ 빠진다… 문과 범위에서만 출제
- 정식 등판 전인데…‘대통령 적합도’ 한동훈 45%·이재명 41%
- SKY 수시 최초합격 30% 등록 포기…“의·약대 갔을 것”