누드사진 팔던 여성의 정체는 '가상인간'
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
미국의 한 커뮤니티 사이트에서 자신의 누드 사진을 판매하던 여성의 정체가 AI를 통해 만들어진 가상 인간으로 드러났다.
지난 11일(현지시간) 워싱턴포스트(WP)의 보도에 따르면 온라인 커뮤니티 '레딧'의 이용자 '클라우디아'는 지난 1월부터 게시판에 자신의 사진을 올렸다.
익명의 두 학생은 자신들이 클라우디아를 생성해 누드 사진을 팔았고, 100달러(약 13만원)을 벌었다고 전했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
미국의 한 커뮤니티 사이트에서 자신의 누드 사진을 판매하던 여성의 정체가 AI를 통해 만들어진 가상 인간으로 드러났다.
지난 11일(현지시간) 워싱턴포스트(WP)의 보도에 따르면 온라인 커뮤니티 '레딧'의 이용자 '클라우디아'는 지난 1월부터 게시판에 자신의 사진을 올렸다.
그는 커뮤니티 게시판에 비용을 지불하면 자신의 누드 사진을 보내주겠다고 홍보했다.
클라우디아의 홍보는 꽤 많은 호응을 얻었다. 하지만 클라우디아의 정체는 실존 인간이 아닌 이미지 생성 AI '스테이블 디퓨전'(Stable Diffusion)으로 만든 가상 인간이었다.
현지 언론에 따르면. 익명의 두 학생은 자신들이 클라우디아를 생성해 누드 사진을 팔았고, 100달러(약 13만원)을 벌었다고 전했다.
클라우디아의 사례는 이미지 생성 AI가 포르노의 제작과 소비 방식에 미치는 영향을 예고한다고 해석할 수 있다. WP는 AI 기술이 여성에 대한 성적 대상화와 착취, 사칭 등을 더욱 심화시킬 수 있다고 우려를 표했다.
실제로 이미지 생성 AI는 짧은 단어 몇 개만 입력하면 손 쉽게 가짜 사진을 만들 수 있다. 가짜 사진을 자연스럽고 정교하게 편집하면 마치 진짜 같은 사진이 만들어진다.
지난달 말, 흰색 패딩을 입고 있는 프란치스코 교황의 사진이 알고보니 AI툴인 '미드저니'(Midjourney)로 만든 가짜 사진임이 밝혀져 화제가 된 바 있다.
한편, 영국의 스타트업 스테빌리티 AI는 자사에서 제작한 스테이블 디퓨전으로 '외설적이고 음란하다고 생각되는 이미지를 만드는 것'을 금지하고 있다. 하지만 프로그램 특성상 누구나 사용할 수 있어 이를 실질적으로 규제할 방법은 없다.
김수연 온라인 뉴스 기자 ksy12@segye.com
Copyright © 세계일보. 무단전재 및 재배포 금지.
- “한국처럼 결혼·출산 NO”…트럼프 당선 이후 미국서 주목받는 ‘4B 운동’
- “그만하십시오, 딸과 3살 차이밖에 안납니다”…공군서 또 성폭력 의혹
- “효림아, 집 줄테니까 힘들면 이혼해”…김수미 며느리 사랑 ‘먹먹’
- “내 성별은 이제 여자” 女 탈의실도 맘대로 이용… 괜찮을까 [어떻게 생각하십니까]
- [단독] “초등생들도 이용하는 女탈의실, 성인男들 버젓이”… 난리난 용산초 수영장
- ‘女스태프 성폭행’ 강지환, 항소심 판결 뒤집혔다…“前소속사에 35억 지급하라”
- “송지은이 간병인이냐”…박위 동생 “형수가 ○○해줬다” 축사에 갑론을박
- “홍기야, 제발 가만 있어”…성매매 의혹 최민환 옹호에 팬들 ‘원성’
- 사랑 나눈 후 바로 이불 빨래…여친 결벽증 때문에 고민이라는 남성의 사연
- "오피스 남편이 어때서"…男동료와 술·영화 즐긴 아내 '당당'