[생생경제] "N번방 이후 성 착취물 줄었나?" AI 탐지 기술, 딥페이크 범죄 못 잡는
- 딥페이크 성착취물 가해자·피해자 10대가 대다수
- AI가 편집 기술과 접목돼 딥페이크 영상 제작 쉬워져
- 텔레그램 규제, 성착취물 근절에 효과적인 대안 못 돼
- 글로벌 테크 기업에 AI 영상물 워터마크 삽입 권고
- 가장 효과적인 대안, '위장수사'디지털 성범죄로 확대해야
■ 방송 : YTN 라디오 FM 94.5 (09:00~10:00)
■ 진행 : 이현웅 아나운서
■ 방송일 : 2024년 9월 2일 (월요일)
■ 대담 : 김승주 고려대학교 정보보호대학원 교수
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◆ 이현웅 아나운서 (이하 이현웅) : "인공지능은 핵폭탄보다 더 위험하다" 테슬라의 최고경영자죠. 일론 머스크가 한 말입니다. 규제 없이 기술을 활용할 때 사회에 미칠 파장이 클 거라는 메시지로 해석해 볼 수 있겠는데 우리 사회에 지금 드리운 '딥페이크 성범죄' 사태에도 이 말이 딱 적용될 수 있겠습니다. 딥페이크 기술을 활용한 성착물을 텔레그램으로 유포하는 범죄가 기승을 부리면서 AI 기술에 대한 감시 그리고 규제가 필요하다는 목소리 점차 커지고 있는데요. 오늘 이 시간에는 이에 대응할 기술로 거론되는 딥페이크 탐지 솔루션에 대해서 살펴보려고 합니다. 과연 딥페이크를 탐지할 수 있는 기술은 어디까지 발전했을까요? 관련 내용 김승주 고려대 정보보호대학원 교수와 이야기 나눠보겠습니다. 교수님 나와 계십니까?
◇ 김승주 고려대학교 정보보호대학원 교수 (이하 김승주) : 네 안녕하십니까?
◆ 이현웅 : 예 안녕하십니까? 뉴스를 통해서 거의 못 들으신 분들이 없을 것 같습니다. 딥페이크 성범죄가 지금 굉장히 기승을 부리고 있는데 범죄 수치를 들으면 더 놀라실 것 같습니다. 지금 허위 영상물 범죄 규모 어느 정도나 됩니까?
◇ 김승주 : 다들 상상하시겠지만 매우 크게 증가했죠. 그런데 통계 조사 결과는 약간 좀 다릅니다. 예를 들어서 경찰청 조사 결과에 따르면 2021년, 2023년 이때는 한 160건에서 180건 사이였는데 2024년 접어들어서는 상반기에만 한 300건 가까이 되고요. 방심위(방송통신심의위원회) 조사 결과에 따르면 2021년에는 한 1900여 건 정도 되고요. 2023년에는 7,200건이였던 것이 2024년에 이르러서는 상반기에만 한 6,400건 정도 됩니다. 즉 3년 사이에 한 6배 이상 폭증한 거죠.
◆ 이현웅 : 증가하는 숫자는 그렇다고 치고 200여 건, 6천여 건. 아마 국민들이 생각하는 숫자보다는 조금 적은 것 같은데 이유가 있습니까?
◇ 김승주 : 이런 것들은 기본적으로 신고된 것들만 추산을 했기 때문에 이런 것이고요. 또 신고하는 것이 어떤 데는 방심위로 갈 수도 있고 어떨 때는 경찰청으로 갈 수도 있기 때문에 이런 수치들은 차이도 있고 예상보다 좀 적게 보이는 그런 현상이 있는 것 같습니다.
◆ 이현웅 : 그리고 더 퍼지는 거를 두려워해서 신고를 안 하는 경우들도 있으니까요. 실제로는 더 많은 피해자가 있다고 우리가 예상을 해볼 수가 있겠고 그런데 지금 얘기가 되는 게 학교 선생님, 대학 동문 심지어는 미성년자 피해자들도 상당히 많다고 들었습니다. 10대 피해자의 규모도 추산된 게 있습니까?
◇ 김승주 : 일단은 교육부 결과들이 좀 있습니다. 대부분 말씀하신 대로 피해자의 한 60% 가까이는 10대고요. 그다음에 20대가 그 다음을 잇습니다. 한 32% 정도 되고요.
◆ 이현웅 : 이게 가해자들도 나이가 연령대가 많이 어리다고요?
◇ 김승주 : 이거를 좀 이렇게 보시면 될 것 같아요. 가해자도 사실은 10대가 많고 피해자도 10대가 많은 편입니다. 더 큰 문제는 뭐냐 하면 요새 가끔 대중교통 이용하시면 10대들은 비속어가 옛날보다 좀 많아졌다는 느낌이 좀 드시지 않나요? 그런데 이 친구들이 그걸 나쁜 말이라고 인식하지 않거든요. 그냥 평상시와 같이 쓰는 겁니다. 그렇듯이 지금 가장 큰 문제는 10대들이 실제로 딥페이크 영상을 많이 만들어내는데 이걸 무슨 범죄를 저지른다는 생각을 가지고 하는 것이 아니라 재미 삼아서 하는 경우가 굉장히 많다는 겁니다. 그래서 본인 자체도 이게 지금 나쁜 짓이다, 범죄다라는 걸 인지하지 못하니까 10대 가해자라든가 10대 피해자가 더 많은 걸로 나타나는 요인이 되지 않나 싶습니다.
◆ 이현웅 : 그렇군요. 이런 거를 딥페이크 AI가 발전할 당시에 뭔가 미리 예측하고 기술적으로 방지를 해뒀으면 좋겠다는 생각도 드는 요즘인데 성범죄가 특히나 딥페이크 기술을 이용해서 늘어난 이유는 뭐라고 보십니까?
◇ 김승주 : 그러니까 딥페이크라고 하는 게 우리가 옛날에 영상 편집 이런 것들은 특정 제품 이름을 거론해서 좀 그렇지만 포토샵 뭐 이런 것들을 많이 이용을 하셨거든요.
◆ 이현웅 : 그쵸
◇ 김승주 : 근데 포토샵 같은 걸로 이런 어떤 영상 편집 프로그램 또는 이미지 편집 프로그램을 이용하려면 어느 정도 그 프로그램 사용법을 이겨야 됩니다. 그런데 딥러닝이라든가 이런 AI 기술이 이런 영상 편집 기술과 접목이 되면서 이런 어떤 편집된 영상이나 이미지를 만드는 게 굉장히 쉬워졌습니다. 그러다 보니까 이것저것 편집을 하기 시작했고 그중에서 또 많은 사람들이 또 흥미를 느끼고 자극적인 것들은 아무래도 성 관련한 영상이다 보니까 딥페이크가 이런 성범죄로 악용되고 있는 것 같습니다.
◆ 이현웅 : 이게 영화 등의 분야에서는 상당히 또 주목받는 기술이기도 한데 범죄로 악용될 때에는 이렇게 큰 문제가 되는 것 같습니다. 혹시 뭐 이렇게 딥페이크 기술을 활용해서 영상물을 만들어보신 적 있습니까?
◇ 김승주 : 저는 학교에 있으니까 AI를 사용하는 여러 가지 기법들을 강의 시간에 강연을 하지요. 그런데 그런 것들은 이미지 편집을 어떻게 한다 이런 차원에서 강의를 하는 것이지 그걸로 무슨 특정 영상을 그 자리에서 편집해서 해보고 이렇게까지 가지는 않습니다.
◆ 이현웅 : 실제로 그런 거를 강의할 때 보면 그러면 특별한 기술을 갖춘 학생이 아니더라도 누구나 다 접근을 할 수 있다. 그러니까 그만큼 좀...
◇ 김승주 : 확실히 예전보다 편리해진 건 사실이고요. 지금은 이미지 영상을 생성하는 AI가 그냥 말로 입력을 하면 그것을 그대로 영상으로 표현해 주는 지경까지 왔습니다. 그래서 예전보다 굉장히 빨라진 건 사실입니다.
◆ 이현웅 : 여기서 주목할 부분이 또 한 가지 있습니다. 어쨌든 이런 영상물들이 성범죄 영상물들이 텔레그램이라는 플랫폼 SNS를 통해서 유포가 된다는 건데 텔레그램은 이전에 마약 문제 때도 주목을 많이 받았었고요. 어떻게 이렇게 범죄의 온상이 된 겁니까?
◇ 김승주 : 사실은 텔레그램은 이번에 딥페이크 성범죄에서만 이슈가 되고 있는 게 아니라 예전에 '조주빈 N번방 사건' 때도 굉장히 이슈가 됐었죠. 사실은 텔레그램이라고 하는 게 보안성이 강화된 메신저. 그래서 이걸 이용하면 익명성이 철저히 보장된다. 이렇게 많은 분들이 알고 계세요. 그런데 기술적으로 봤을 때는 텔레그램보다도 훨씬 더 뛰어난 보안을 자랑하는 메신저들은 여럿이 있습니다. 그래서 실제로 조주빈 사건의 경우에는 일반인들을 대상으로 성착취물을 유포할 때는 텔레그램을 썼지만 VIP 방에서는 또 다른 더 뛰어난 보안 메신저를 사용했습니다. 그리고 드루킹 같은 경우도 텔레그램보다 훨씬 더 뛰어난 보안 메신저를 이용해서 범죄를 공모하고 이랬었거든요. 그래서 텔레그램이 좋은 보안 메신저 익명성을 추구하는 보안 메신저인 건 맞지만 기술적으로 최고 수준의 보안 메신저는 아닙니다. 그럼에도 불구하고 이 텔레그램의 CEO 텔레그램의 대표가 정부의 수사 협조에 타협을 안 하기로 굉장히 유명합니다. 그리고 러시아 정부에서도 텔레그램 CEO에게 수사 협조를 요청했더니 그거 싫어 그러면서 다른 나라로 망명했다는 그런 일화까지도 이거든요. 이런 어떤 CEO의 배경이 덧붙여지면서 텔레그램은 익명성이 절대로 깨지지 않아 이런 어떤 착시현상을 불러일으키고 있는 것 같습니다.
◆ 이현웅 : 그럼 기술적으로 보자면 거꾸로 말했을 때 일각에서는 지금 '텔레그램을 왜 안 막냐', '텔레그램이 이렇게 범죄의 온상이 됐는데 이걸 막으면 되는 거 아니냐'라고 얘기를 하고 있지만 만약에 정말로 텔레그램의 사용을 막는다고 하더라도 이런 익명성과 보안성이 더 뛰어난 기술을 활용해서 범죄가 계속 이어질 수 있다고 볼 수 있는 거죠.
◇ 김승주 : 그렇죠. 그래서 자꾸 텔레그램에 대해서 기술적으로만 접근을 한다면 다른 또 뛰어난 보안 메신저가 있기 때문에 한계가 있습니다. 또 어떤 기술이 나오면 그것보다 더 강한 그런 보안 메신저가 또 나올 수가 있거든요. 그래서 제가 사실은 여러 지금 딥페이크 관련 대책도 나오고 사실은 이 방송의 제목도 딥페이크 탐지 기술이 어디까지 발전했는가 이런 걸 알아보는 어떤 그런 프로그램이긴 하지만 저 개인적으로는 딥페이크든 텔레그램이든 기술적으로 자꾸 접근하려고 하는 것에는 조금 반대하는 입장입니다.
◆ 이현웅 : 기술적으로 접근하는 건 반대다. 그래도 청취자분들이 정보를 좀 알아야 되니까요. 그 부분을 좀 한번 여쭤는 보겠습니다. 이게 딥페이크가 어쨌든 AI를 활용한 기술인데 그러면 그런 AI를 AI로 잡을 수 없는가. '눈에는 눈 이에는 이' 식으로 탐지 기술 또한 AI로 활용할 수 없는가. 이런 부분들도 많이 궁금해하시거든요.
◇ 김승주 : 사실은 뭐 그런 시도는 예전부터 이미 있었고요. 그래서 "야 AI로 어떤 걸 만들었으니까 그걸 AI를 이용해서 탐지하면 될 거 아니야" 뭐 이런 시도는 옛날부터 있었고 그것을 굉장히 열심히 하고 있는 회사 중에 하나가 구글입니다. 구글이라고 하는 회사는 여러 가지 이미지들을 자기 사이트에다 공개를 합니다. 그래서 일반인들이 뛰어난 탐지 기술을 개발을 해서 그 사진으로부터 딥페이크를 이용한 위조 사진과 실제 사진을 구별해내는 것을 테스트해보도록 유도하고 있거든요. 이런 것들이 대표적인 AI를 이용해서 AI를 막는 어떤 그런 어떤 시도들이라고 보시면 되겠습니다.
◆ 이현웅 : 말씀하신 구글 같은 경우가 생성형 AI로 만든 이미지에 워터마크를 삽입하고 있다고 알고 있는데 이게 워터마크 기술이 좀 더 보편화되면 디페이크 범죄 막을 수 있는 거 아니냐 이런 얘기도 있거든요.
◇ 김승주 : 그건 아니고요.
◆ 이현웅 : 아닙니까?
◇ 김승주 : 워터마크 기술은 조금 분리해서 보실 필요가 있습니다. 그러니까 우리가 보통 딥페이크를 어떻게 잡아낼까. 크게 두 가지가 있는데 크게 보면 하나는 아주 뛰어난 탐지 기술을 만들어서 그것을 가지고 딥페이크 위조 영상을 잡아내는 겁니다.
◆ 이현웅 : 이게 진짜 영상인지 가짜 영상인지를 구별해 낸다.
◇ 김승주 : 그렇죠. 이렇게 탐지하는 분야가 하나 있고요. 워터마크는 뭐냐 하면 지금 여러 글로벌 기업들이 글로벌 테크 기업들이 AI를 이용한 영상 편집 기술들을 내놓고 있습니다. 그런 소프트웨어들을 출시하고 있거든요. 그런데 범죄자들이 이런 양질의 소프트웨어를 악용하면 문제가 있을 수 있지 않습니까? 그래서 글로벌 테크 기업 정상적인 기업들이 AI 기술을 이용한 영상 편집 프로그램을 시장에 내놓을 때는 영상 편집 프로그램에 워터마킹 기능을 삽입하라는 겁니다. 이 워터마킹 기능은 뭐냐 하면 이 영상 편집 AI 영상 편집 프로그램을 이용해서 어떤 이미지를 만들어냈을 때 그 이미지에 태그를 붙이는 겁니다. 꼬리표를 붙여서 '이건 인공지능이 만들었습니다' 이렇게 표식을 붙이라는 겁니다. 이게 워터마크 기법이고요. 그러면 범죄자들은 이렇게 워터마크가 붙는 그런 정상적인 소프트웨어를 안 쓸 거 아닙니까?
◆ 이현웅 : 그렇죠.
◇ 김승주 : 그러면 결국은 자기네들이 만들어서 쓸 텐데 이렇게 범죄 집단이 스스로 만들어서 쓰는 이런 영상 편집 도구들은 탐지 기술을 이용해서 별도로 잡아내겠다는 겁니다.
◆ 이현웅 : 두 가지 방안을 다 활용해서 어쨌든 막겠다는 건데 근데 그럼에도 불구하고 기술적으로만 보자면 결국 참가와 방패 싸움에서 범죄자들 쪽이 조금 더 앞서갈 수 있다고 보시는 건가요?
◇ 김승주 : 그렇죠. 우리가 얼마 전에 매크로 때문에 그게 문제가 됐던 적이 있었죠. 정말 많은 분들이 '교수님 매크로 이거 기술적으로 못 막나요?' 이 얘기를 굉장히 많이 하세요. 그런데 매크로를 기술적으로 막아도 또 그걸 우회하는 게 또 나옵니다. 이게 해킹 기법하고 되게 비슷하거든요. 그래서 워터마크 기술이든 탐지 기술이든 이런 것들은 얼마든지 우회하는 기술이 나오기 때문에 기술적인 수단으로는 분명히 한계가 있습니다. 그래서 제가 기술에 너무 집착하는 건 좋지 않다 이렇게 얘기하는 거고요. 실제로 그런 선례가 있습니다. 뭐냐 하면 예전에 조주빈 N번방 사건이 있었을 때 그때 정부에서 AI 기술을 이용해서 '성착취 동영상을 인터넷에서 다 탐지하겠다' 이런 계획을 발표했던 적이 있습니다. 그러면서 모든 언론에 그 AI 탐지 기술을 대서 특필하던 때가 있었거든요. 그때도 제가 이거 기술적으로 그렇게 완벽하게 안 됩니다. 분명히 한계가 있습니다. 이렇게 얘기를 했었거든요. 그러면 지금 조주빈 N번방 사건 이후로 성착취물 동영상이 얼마나 줄었는지를 한번 보자 이거죠. AI 탐지 기술이 과연 얼마나 잡아냈는가. 사실 그렇게 못 미치거든요. 이번 딥페이크 탐지 기술도 기술적으로만 접근하면 N번방 사태처럼 그 한계가 뻔히 보일 겁니다.
◆ 이현웅 : 그러면 기술적으로는 막을 수 없다고 한다 그러면 어쨌든 피해는 막아야 되는 거 아닙니까? 어떤 방법이 있겠습니까?
◇ 김승주 : 사실은 그때 N번방 때도 나왔던 것이 가장 효과적이고 미국의 수사기관들도 많이 쓰고 있는 방식이 위장 수사입니다.
◆ 이현웅 : 위장 수사.
◇ 김승주 : 실제로 그런 음란 동영상을 공유하는 멤버인 것처럼 그 텔레그램 단톡방 같은 데 들어가는 겁니다. 실제로 옛날에 추적단 불꽃이 이런 위장 수사를 실제로 했었거든요. 사실은 이 위장 수사가 텔레그램이라든가 다크웹. 이런 딥페이크 기술 이런 것들을 우회해서 수사할 수 있는 가장 강력한 수단입니다. 그런데 우리나라에서는 이 위장 수사를 법적으로 금하고 있습니다. 그래서 N번방 사건 때 부분적으로 이 위장 수사를 허용을 했었습니다. 어떻게 허용했냐 하면 '아동 성범죄에 한해서는 위장 수사를 허용한다' 이렇게 했거든요. 그런데 문제는 위장 수사 초기 단계에는 이게 아동 성범죄인지 아닌지가 확인이 안 됩니다. 피해자가 나와보고 신원 확인을 해봐야 이게 미성년자인지 아닌지를 알 수 있거든요. 그래서 그때 N번방 사건 때도 거론이 됐습니다만 위장 수사의 허용 범위를 아동 성범죄에서 디지털 성범죄 전체로 확대할 필요가 있습니다. 그러면 1차적으로 텔레그램을 또는 딥페이크를 탐지하는 기술 개발하는 것보다 훨씬 더 즉각적인 효과가 나올 확률이 높습니다.
◆ 이현웅 : 알겠습니다. 기술적으로 예방은 다소 어려운 측면이 있으니까 수사랑 적발을 강화하고 또 처벌을 강화하는 쪽으로 우리가 대안을 마련해 나가야 된다고 제가 이해하면 되겠습니까?
◇ 김승주 : 맞습니다.
◆ 이현웅 : 알겠습니다. 오늘은 여기까지 듣도록 하겠습니다. 김승주 고려대 정보보호대학원 교수와 함께했습니다. 고맙습니다.
◇ 김승주 : 네 감사합니다.
YTN 김세령 (newsfm0945@ytnradio.kr)
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
Copyright © YTN. 무단전재 및 재배포 금지.
- [단독] 텔레그램서 아동 성 착취물 유통...한국인 대상 판매도
- "이렇게 귀여운 스파이?"...벨루가 죽음에 세계가 주목한 사연
- "집 없는 거지는 거지답게"...LH임대주택 자치회장 공지에 '갑론을박'
- 투신 시도자 가방 갖고 튄 절도범...용감한 시민이 잡았다!
- 직장 책상서 고독사한 美은행원…동료들은 나흘간 몰랐다
- 세계적 암 권위자 "조폭들 암 치료 효과 더 좋아...왜?"
- [날씨] 내일부터 날씨 급변... 오전 동해안 비
- "돈 때문에 수학여행 못 가"…비용 대신 내준 학부모가 전한 '솔직 심정'
- 중학교 때 쓰던 가방 속 휴대폰 공기계 깜빡...결국 부정행위 처리