누드사진 팔던 여성의 정체는 '가상인간'

김수연 기자 2023. 4. 13. 16:50
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

  미국의 한 커뮤니티 사이트에서 자신의 누드 사진을 판매하던 여성의 정체가 AI를 통해 만들어진 가상 인간으로 드러났다.

지난 11일(현지시간) 워싱턴포스트(WP)의 보도에 따르면 온라인 커뮤니티 '레딧'의 이용자 '클라우디아'는 지난 1월부터 게시판에 자신의 사진을 올렸다.

익명의 두 학생은 자신들이 클라우디아를 생성해 누드 사진을 팔았고, 100달러(약 13만원)을 벌었다고 전했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

 
미국의 한 커뮤니티 사이트에서 자신의 누드 사진을 판매하던 여성의 정체가 AI를 통해 만들어진 가상 인간으로 드러났다.

지난 11일(현지시간) 워싱턴포스트(WP)의 보도에 따르면 온라인 커뮤니티 '레딧'의 이용자 '클라우디아'는 지난 1월부터 게시판에 자신의 사진을 올렸다.

그는 커뮤니티 게시판에 비용을 지불하면 자신의 누드 사진을 보내주겠다고 홍보했다.

클라우디아의 홍보는 꽤 많은 호응을 얻었다. 하지만 클라우디아의 정체는 실존 인간이 아닌 이미지 생성 AI '스테이블 디퓨전'(Stable Diffusion)으로 만든 가상 인간이었다. 

현지 언론에 따르면. 익명의 두 학생은 자신들이 클라우디아를 생성해 누드 사진을 팔았고, 100달러(약 13만원)을 벌었다고 전했다.

클라우디아의 사례는 이미지 생성 AI가 포르노의 제작과 소비 방식에 미치는 영향을 예고한다고 해석할 수 있다. WP는 AI 기술이 여성에 대한 성적 대상화와 착취, 사칭 등을 더욱 심화시킬 수 있다고 우려를 표했다.

실제로 이미지 생성 AI는 짧은 단어 몇 개만 입력하면 손 쉽게 가짜 사진을 만들 수 있다. 가짜 사진을 자연스럽고 정교하게 편집하면 마치 진짜 같은 사진이 만들어진다.

지난달 말, 흰색 패딩을 입고 있는 프란치스코 교황의 사진이 알고보니  AI툴인 '미드저니'(Midjourney)로 만든 가짜 사진임이 밝혀져 화제가 된 바 있다.

한편, 영국의 스타트업 스테빌리티 AI는 자사에서 제작한 스테이블 디퓨전으로 '외설적이고 음란하다고 생각되는 이미지를 만드는 것'을 금지하고 있다. 하지만 프로그램 특성상 누구나 사용할 수 있어 이를 실질적으로 규제할 방법은 없다.

김수연 온라인 뉴스 기자 ksy12@segye.com

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?