한국으로 여행 간 딸 “살려달라”…납치 영상 알고 보니 딥페이크

이가림 2024. 11. 7. 16:18
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

딸이 납치된 것처럼 속인 딥페이크 영상으로 돈을 뜯어내려고 한 사건이 발생했다.

지난달 외국인 A씨의 스마트폰으로 한국을 여행하던 딸이 감금된 채 "살려달라"며 우는 영상이 전송됐다.

영상을 보낸 이는 "당신 딸을 납치했다"며 "딸을 살리고 싶으면 합의금을 보내라"고 협박했다.

영상 속 울고 있던 딸의 모습은 딥페이크 기술로 만든 가짜였던 것이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


딸이 납치된 것처럼 속인 딥페이크 영상으로 돈을 뜯어내려고 한 사건이 발생했다.

지난달 외국인 A씨의 스마트폰으로 한국을 여행하던 딸이 감금된 채 “살려달라”며 우는 영상이 전송됐다. 영상을 보낸 이는 “당신 딸을 납치했다”며 “딸을 살리고 싶으면 합의금을 보내라”고 협박했다.

부모는 해당 사실을 영사관에 알렸다.

신고를 받고 출동한 한국 경찰은 딸의 안전을 확인했다. 영상 속 울고 있던 딸의 모습은 딥페이크 기술로 만든 가짜였던 것이다.

경찰청 국가수사본부는 7일 이 사례를 공개하며 “국내에서도 유사한 사건이 발생할 가능성이 있으므로 각별히 주의해달라”고 당부했다.

인공지능(AI)을 활용한 딥페이크는 단순히 얼굴을 바꾸는 것을 넘어 실제 인물처럼 표정과 움직임도 재현할 수 있다.

가짜 음성을 생성하는 딥보이스도 주의해야 한다. 범인이 목소리를 복제해 납치 범죄인 것처럼 꾸며 악용할 수 있기 때문이다.

기존의 피싱 범죄가 목소리를 따라하는 데 그쳤다면 이제는 자녀의 실제 목소리와 얼굴을 활용해 즉각적 송금을 요구하는 범행이 이뤄질 수 있다.

부모도 이런 상황에 처하게 되면 판단할 여유가 없어 심리적 압박에 내몰릴 가능성이 매우 높다.

경찰청은 “딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 소셜미디어(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄조직의 표적이 될 수 있다”며 SNS 계정 ‘전체공개’ 설정을 지양해야 한다고 경고했다.

올해 9월까지 납치를 빙자한 전화금융사기가 174건 발생했다며 “납치 전화가 금융사기일 가능성을 항상 염두에 두고 무조건 신고해야 한다”고도 강조했다.

안찬수 경찰청 마약조직범죄수사과장은 “AI 발전이 일상생활을 더 편리하게 만들었지만 동시에 범죄에 악용될 환경을 제공했다”며 주의를 당부했다.

이가림 인턴기자 onlinenews1@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포 및 AI학습 이용 금지

Copyright © 국민일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?