진짜같은 ‘AI 성착취물’ 퍼지는데…“알고리즘 핑계 땐 처벌 한계”

박고은 2023. 3. 21. 21:05
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

"인공지능(AI·에이아이)이 만들어내는 예술 작품을 감상하세요."

인공지능 기술로 '예술 작품'을 만든다는 ㄱ앱의 소개 글이다.

인간의 뇌보다 빠른 속도로 결과물을 내는 인공지능 기술이 '성착취물 산업'에도 빠른 속도로 접근하고 있다.

누군가의 얼굴이나 신체 등을 이용해 허위 성착취물을 만들거나 배포하면 처벌하는 '딥페이크 처벌법'이 있지만, 인공지능 성착취물은 수많은 인물의 이미지를 학습한 가상의 결과물이기 때문에 책임을 묻기 어려울 수 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

성인 인증 없어도 앱 · SNS 통해
실제같은 여성 착취물 확산 우려
게티이미지뱅크

“인공지능(AI·에이아이)이 만들어내는 예술 작품을 감상하세요.”

인공지능 기술로 ‘예술 작품’을 만든다는 ㄱ앱의 소개 글이다. 이 앱이 ‘예술 작품’이라며 게시한 이미지는 전부 특정 신체 부위를 도드라지게 부각한 여성들이다. 여성들은 대체로 속옷이나 비키니, 몸에 달라붙는 원피스 차림이다. 앱 소개 글을 보지 않았더라면 실존 인물의 사진으로 착각할 법하다. 앱 리뷰엔 “눈이 즐겁네요. 좀 더 야한 것도 부탁드려요”, “상반신도 좋지만 전체가 나오는 여러 포즈도 좋을 것 같아요”라는 요구가 잇따랐다. 16살 이상이면 내려받을 수 있는 이 앱은 출시 한달여 만에 구글 플레이스토어 사진 부문 인기 앱·게임 4위에 올랐다.

인간의 뇌보다 빠른 속도로 결과물을 내는 인공지능 기술이 ‘성착취물 산업’에도 빠른 속도로 접근하고 있다. ㄱ앱뿐만 아니라 트위터 등 사회관계망서비스(SNS)에서 ‘AI 실사’, ‘AI 몸매’ 같은 단어를 검색하면, 별도의 성인 인증 절차 없이 남성들의 성적 판타지를 자극하는 이런 가상 인물들을 쉽사리 찾아볼 수 있다.

인공지능이 만들어낸 가상 인물은 실제 사람으로 착각할 정도로 사람과 비슷하다. 이 때문에 전문가들은 여성에 대한 왜곡된 가치관을 심어줄 가능성이 매우 높다고 지적한다. 김신아 한국성폭력상담소 성문화운동팀 활동가는 “남성의 욕망과 시선에 부합하도록 여성의 몸을 이미지화했다는 점에서 문제적”이라며 “수많은 성착취물이나 리얼돌이 여성에 대한 왜곡된 상을 재현하고 있는 것과 같은 해악을 끼칠 수 있다”고 말했다.

인공지능이 데이터를 학습하는 과정에서 초상권 문제가 발생할 수 있다는 지적도 나온다. 챗지피티가 문장을 학습한다면, 이미지 생성 인공지능은 이미지를 학습해 가상의 결과물을 생성한다. 문제는, 개발자가 인공지능에 어떤 이미지를 학습시켰는지는 결과물만 보고선 알 수 없다는 점이다.

김명주 서울여대 교수(정보보호학과)는 “원하는 결과물이 구체적이라면 연예인 등 특정인의 이미지들을 학습시킬 수도 있다”며 “결과물은 성인의 얼굴을 하고 있더라도 학습 과정에서는 미성년자의 이미지도 포함돼 있을 수 있다”고 지적했다. 실제 지난해 10월엔 한국관광공사가 제작비와 마케팅비 7억8천만원을 들여 제작한 인공지능 인간 ‘여리지’가 걸그룹 레드벨벳의 아이린을 닮아 논란이 된 바 있다.

하지만 성착취적인 인공지능 이미지로 초상권 등을 침해당한 피해자가 나오더라도 이를 처벌할 법안은 미비하다. 누군가의 얼굴이나 신체 등을 이용해 허위 성착취물을 만들거나 배포하면 처벌하는 ‘딥페이크 처벌법’이 있지만, 인공지능 성착취물은 수많은 인물의 이미지를 학습한 가상의 결과물이기 때문에 책임을 묻기 어려울 수 있다.

서아람 법무법인 에스시(SC) 변호사는 “실존 인물을 연상시키는 음란 이미지를 만든 경우 딥페이크 처벌법 적용이 가능하다”면서도 “에이아이 학습에 쓰인 원본 이미지가 어떤 것인지 특정하지 못할 수 있고, ‘에이아이 알고리즘에 따른 것이지 고의는 없었다’고 주장할 수 있어 실제로 처벌로 이어지기엔 한계가 있다”고 말했다. 김명주 교수는 “생성 에이아이와 관련한 저작권 규정은 명확하게 정해지지 않아 유포도 쉽다”며 “처음 이미지를 만든 사람에게 책임을 물을 수 있도록 모든 에이아이 이미지에 워터마크를 표시하게 하는 등의 조처가 필요하다”고 했다.

박고은 기자 euni@hani.co.kr

Copyright © 한겨레. All rights reserved. 무단 전재, 재배포 및 크롤링 금지.

이 기사에 대해 어떻게 생각하시나요?