“이젠 아무것도 못 믿겠다”… 누드 사진 팔던 여성의 반전 정체
“내 벗은 몸 볼래?”라는 말에 혹해 여성의 누드 사진을 구매한 한 네티즌은 좌절하고 말았다. 돈 주고 산 사진이 알고보니 인공지능(AI)으로 생성한 가짜 이미지였기 때문이다.
12일(현지 시각) 워싱턴포스트 등에 따르면 지난 1월부터 영미권 최대 온라인 커뮤니티 레딧에 닉네임 ‘클라우디아’라는 이용자가 나체 사진을 판매하기 시작했다. 클라우디아는 셀카 사진을 올린 뒤 관심을 보인 네티즌에게 “돈을 내면 더 많은 사진을 보여주겠다”고 개인 메시지를 보내는 방식으로 구매자를 모집했다.
하지만 클라우디아가 올린 셀카를 비롯해 일부에게 판매한 나체 사진은 모두 이미지 생성 AI 프로그램 ‘스테이블 디퓨전’으로 창조된 가짜 이미지였다. 컴퓨터과학 전공 대학생 2명이 가상의 여성을 만들어 낸 뒤 이를 이용해 수익을 창출한 것이다. 이들은 “솔직히 이 정도로 관심을 끌 거라고는 생각하지 못했다”며 “클라우디아의 사진을 판매해 100달러(약 13만원)를 벌었다”고 했다.
이 같은 사실이 알려지자 일각에서는 딥페이크 포르노에 대한 윤리적 문제를 제기했다. 캘리포니아 버클리대 하니 파리드 교수는 “AI 사진 생성 프로그램 자체가 이미 있는 데이터를 기반으로 이미지를 창출해내기 때문에, 자신의 초상이 활용되는데 동의하지 않은 누군가의 사진이 무분별하게 이용될 수 있다”며 “그 자체로 윤리적 문제가 발생한다”고 지적했다. 그러면서 “딥페이크 포르노는 문제가 많으며 법적으로 규제돼야 한다. 물론 딥페이크에는 장단점이 있지만, 포르노 산업과 연계되는 순간 문제가 복잡해진다”고 했다.
이번 일을 두고 네티즌들은 “이제는 아무것도 믿을 수 없다”는 반응을 보였다. 실제로 레딧에 올라왔던 클라우디아 셀카는 자세히 분석하지 않으면 합성 티가 나지 않는다. 클라우디아 셀카 게시물에는 여전히 “너무 예쁘다” “어떻게 그렇게 예쁠 수 있냐” “아름답고 사랑스럽다” 등 조작을 전혀 의심하지 않은 댓글들이 달려 있다.
한편 AI 프로그램으로 생성된 가짜 이미지 논란은 최근 들어 지속해서 도마 위에 오르고 있다. 지난달에는 프란치스코 교황이 유광 흰색 롱패딩을 입은 사진이 퍼져 화제가 됐다. 당시 한 트위터 계정에 올라온 사진은 조회수 2540만회를 기록했고, 교황의 패딩 브랜드를 추측하는 글도 잇따랐다. 하지만 이는 AI 툴 미드저니를 통해 제작된 이미지였다. 교황은 그 어디에서도 사진에서 나온 패딩을 입었던 적이 없다.
미드저니는 최근 트럼프 전 대통령이 수갑을 찬 채 경찰들에게 체포되는 모습, 교도소에서 주황색 재소자 복장으로 청소를 하는 모습 등을 만들어내 이목을 끈 프로그램이기도 하다. 당시 일부 네티즌은 실제로 트럼프 전 대통령이 체포됐다고 받아들이기도 했다. 이에 트위터까지 나서서 “트럼프 체포 이미지는 가짜”라며 “인공지능이 생성했고, 사실적 근거가 없다”는 공지문을 표시했다.
Copyright © 조선일보. 무단전재 및 재배포 금지.