발전하는 딥페이크 추적 기술, 그들은 언젠가 잡힌다

조경숙 2024. 9. 17. 09:09
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

딥페이크를 방지하기 위한 기술 연구가 이어지고 있다. 중요한 것은 이 성과들을 실제 수사와 서비스에 적용하는 것, 또한 가해자들은 꼭 붙잡히고 처벌될 거라고 인식시키는 것이다.
우한대학 윈밍장 연구팀의 딥페이크 방지 기술을 설명하는 그림. 원본 이미지에 워터마킹을 심어 제작물을 뭉개고 유포 경로를 찾는다. ⓒ자료:Dual Defense: Adversarial, Traceable, and Invisible Robust Watermarking Against Face Swapping(2024)

지난주부터 텔레그램의 어뷰징 신고팀에 매일같이 이메일을 보내고 있다. 딥페이크 이미지를 자동으로 생성하는 텔레그램 봇 차단을 요청하기 위해서다. 텔레그램은 공식 홈페이지에서 ‘불법적인 행위를 하는 공개 봇에 대해 신고받으면 검토하여 차단한다’고 밝히고 있다. 이 규정에 근거하여 신고 메일을 꾸준히 보내고, 주변의 지인들에게도 메일을 함께 보내달라 청했다. 메일을 넣기 시작한 지 열흘쯤 되었을 무렵 딥페이크 봇이 차단됐다는 사실을 알게 됐다. 우리의 메일 때문인지 텔레그램과 방심위의 ‘핫라인 구축’ 덕인지는 알 수 없다. 그러나 기쁨은 잠시뿐이었다. 딥페이크 봇은 주소를 바꾸고 다시 영업 간판을 내걸었다. ‘봇이 복구되었습니다. 우리는 항상 여기에 있습니다’라는 공지글에는 의기양양한 표정의 이모티콘이 덧붙여져 있었다.

그러던 중 뉴스를 하나 읽었다. 텔레그램이 올해 4월부터 참가자 1000명 이상을 모은 방의 개설자에게는 암호화폐로 광고 수익을 지급했다는 내용이다. 자신들이 개발한 서비스 안에서 얼마나 많은 범죄와 사기, 성범죄가 일어나는지 뻔히 알면서도 여태 텔레그램은 익명성 보장을 운운하며 이를 방조해왔다. 그런 서비스에서 광고 수익을 지급하겠다는 건, 지금까지 눈감아주었던 범죄행위를 더 독려하는 것밖에 되지 않는다. 이것은 더 이상 범죄의 방조조차 아니다. 직접 범죄에 가담하지 않았어도 범죄를 키우는 데에 동참한 가담 행위로 이해되어야 한다.

수년 전 위기 청소년들을 꾀어내던 랜덤 채팅 앱도 그랬다. 당장 절박한 청소년을 자신의 플랫폼에 끌어들이기 위해 랜덤 채팅 앱 서비스들은 메시지당 수익을 책정하고 이를 청소년에게 지급했다. 다른 사용자에게 메시지를 받을 때마다 적게는 100원, 많게는 1000원까지 랜덤 채팅 앱 안에서 돈을 벌 수 있었다. 이렇게 번 돈은 문화상품권, 편의점 상품권 등으로 손쉽게 교환되었다. 그래서 오갈 데 없던 청소년들이 랜덤 채팅 앱 안에서 메시지를 받기 위해 자극적인 사진을 걸어 채팅방을 개설하고, 그렇게 접속한 사용자들의 성희롱을 감내하고, 심지어 그 과정에서 그루밍 성범죄에 노출되기도 했던 것이다. 랜덤 채팅 앱은 주기적으로 이런 알람을 띄운다. “아동 청소년 성매매는 범죄입니다.” 그러나 이미 서비스 자체가 그렇게 설계되어 있는데, 알람 하나 걸어둔다고 해서 책임이 없어지는가.

카카오톡, 인스타그램과 같은 플랫폼도 손 놓고 있던 건 매한가지다. 프로필 사진을 캡처해 딥페이크 성범죄에 사용한 사례는 수년 전부터 있었다. 2019년 카카오 측에 프로필 사진 캡처를 금지하는 기능을 요청한 바 있다. 들어주지 않았다. 같은 해 〈여성신문〉에서도 카카오 측에 해당 기능에 대해 문의했으나 카카오 측에서는 “피해 사례를 인지하고 있고 사용자 보호를 우선시하지만, 스마트폰 캡처 기능은 개인적 사용이기에 서비스로 통제하기 어렵다”라고 답변했다. 인스타그램은 특정 상황에서 상대가 보낸 사진을 캡처할 경우 상대방에게 스크린샷을 찍었다는 내용의 알람이 가도록 하는 기능을 활성화한 적이 있다. 다만 스토리나 피드 등의 사진을 캡처할 때는 여기에 해당하지 않는다. 이미지를 기반으로 하는 서비스에는 타인이 얼굴 사진을 손쉽게 가져가지 않도록 캡처 기능을 방지하거나 혹은 캡처되었을 때 알람을 보내주는 기능이 탑재될 수 있도록 해야 한다. 이 내용을 지겹도록 계속 얘기하는 이유는 단 하나, 아직까지도 플랫폼들에 이런 기능이 적용되지 않았기 때문이다.

걸림돌 최대한 쌓아 올려야

물론 캡처를 막는다고 해서 딥페이크 성범죄가 사라지진 않을 것이다. 그러나 크든 작든 딥페이크 범죄로 이어지는 경로에 걸림돌을 최대한 많이 놓는 것이 중요하다. 원본 이미지 획득 자체를 어렵게 하고, 딥페이크 웹사이트에 접속하는 걸 막으며, 불법적인 텔레그램 봇 사용을 차단하는 등 여러 기술을 켜켜이 쌓아 딥페이크 자체가 어려워서 손 놓게 하는 것. 그걸 위해 아무리 작고 간단해 보이는 기술, 금방 우회할 수 있을 것만 같은 기능이라도 가벼이 여기지 않고 하나둘 차근히 쌓아 올려야 하는 것이다. 돌이켜봤을 때 그러한 시도들이 하나둘 모여 범죄를 가로막는 높디높은 담벼락이 되도록 말이다.

성착취물을 제작·유포한 텔레그램 ‘N번방’ 박사방의 운영자 조주빈이 2020년 3월25일 검찰에 송치되기 전 종로경찰서에서 기자들의 질문에 답을 하고 있다.ⓒ시사IN 이명익

학계에서도 딥페이크를 방지하기 위한 연구가 이어지고 있다. 주로 딥페이크로 생성된 결과물을 탐지하는 기술이 여러 방향으로 연구되고 있지만, 그 밖에도 눈에 띄는 것은 딥페이크 디스럽션(Deepfake Disruption), 즉 딥페이크를 방해하는 공격 기술이다. 2022년 중국 우한대학 룬왕 연구팀은 원본 이미지에 딥페이크 AI를 교란할 수 있는 노이즈를 심는 연구 결과를 발표했다. 노이즈를 삽입한 이미지는 사람의 눈으로 보았을 때 특이한 점이 눈에 띄지는 않지만, 딥페이크 AI에 넣으면 결과물의 이미지가 손상된 형태로 드러난다. 다만 노이즈를 심기 위해선 해당 연구에서 제시한 ‘노이즈 삽입 AI’로 이미지를 가공해야 한다.

이 연구를 디딤돌 삼아 지난해에는 딥페이크 모델을 공격하고 동시에 추적하는 실험이 성공적으로 완수되었음을 보고한 논문도 발표되었다. 우한대학 윈밍장 연구팀은 딥페이크의 대상이 되는 원본 이미지에 보이지 않는 워터마킹을 심었다. 이 워터마킹 기술은 딥페이크로 생성된 제작물을 뭉개지게 할 뿐만 아니라, 이미지가 어떤 경로로 유포되었는지까지 추적할 수 있다. 이 기술을 통하면 설령 딥페이크 기술로 제작물을 뭉개지게 하는 공격은 유효하게 적용되지 않더라도, 워터마킹을 통한 추적은 가능하다.

학계에서는 딥페이크 제작 분야에서의 방어 기법을 연구하는 만큼, 텔레그램 뒤에 숨은 범죄자들을 붙잡기 위한 기술도 계속 개발되는 중이다. 국내 보안업체 스텔스모어 인텔리전스는 자사 모듈인 ‘텔레그램 트래커’를 통해 특정 계정의 사용자가 공유한 채널과 봇 정보, 노출한 연락처 정보 등에 대한 기록을 찾아냈다. 심지어 삭제된 계정이라도 정보를 확인해 용의자를 식별하는 데에 쓸 수 있다고 한다.

기술은 빠르게 발전하고 있다. 가속화된 기술개발 위에 성범죄자들이 자꾸만 올라타지만, 그만큼 방어 기법과 추적 기술도 유의미한 결과물을 내는 중이다. 중요한 건 이러한 연구와 기술들을 실제 수사와 서비스에 적용할 수 있도록 끈질기게 요구하는 것, 또한 이러한 기술이 있는 만큼 가해자들은 꼭 붙잡히고 확실하게 처벌될 것이라고 인식시키는 것이다. 추적이 불가능하다고 여겨졌던 텔레그램 안에서 성범죄를 저지르던 ‘N번방'의 조주빈과 문형욱을 보라. 그들은 지금 어디에 있는가. 결국 가해자는 붙잡힌다. 그리고 자신이 한 일의 죗값을 돌려받을 것이다. 그러니 지금 재고해야 할 건 여성 유저들의 사진 업로드가 아니라 플랫폼의 운영 정책이며, 불안에 떨어야 하는 이는 피해자가 아니라 가해자다.

조경숙 (테크-페미 활동가) editor@sisain.co.kr

▶읽기근육을 키우는 가장 좋은 습관 [시사IN 구독]
▶좋은 뉴스는 독자가 만듭니다 [시사IN 후원]
©시사IN, 무단전재 및 재배포 금지

Copyright © 시사IN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?