"아빠, 살려줘" 납치된 딸…피싱범, 이제 딥페이크에 AI까지

이강준 기자 2024. 11. 7. 12:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

경찰청 국가수사본부가 최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 금전을 요구한 외국인 대상 전화금융사기가 발생했다며 주의를 당부했다.

7일 경찰청에 따르면 올해 1~9월 발생한 납치 빙자 전화금융사기 사건은 174건이다.

경찰은 AI 기술을 활용해 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임을 재현할 수 있다며 국내에도 이를 악용한 사건이 발생할 가능성이 있다고 분석했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

사진=임종철

#지난 10월 중국에 거주하는 A씨는 한국을 여행 중이던 그의 딸이 방 안에 감금된채 울면서 살려달라고 말하는 영상을 받았다. 영상을 보낸 범죄 조직은 "당신 딸을 납치했다, 살리고 싶으면 합의금을 보내라"고 협박했다. 알고보니 이 영상은 보이스피싱 조직이 만든 딥페이크 영상이었다.

경찰청 국가수사본부가 최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 금전을 요구한 외국인 대상 전화금융사기가 발생했다며 주의를 당부했다.

7일 경찰청에 따르면 올해 1~9월 발생한 납치 빙자 전화금융사기 사건은 174건이다. 경찰은 AI 기술을 활용해 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임을 재현할 수 있다며 국내에도 이를 악용한 사건이 발생할 가능성이 있다고 분석했다.

보이스피싱 범죄에 악용될 수 있는 AI 기술엔 딥보이스(Deepvoice)도 있다. 딥보이스는 AI를 통해 특정 인물의 목소리를 학습해 이 사람처럼 말하는 가짜 음성을 생성하는 기술을 말한다.

보이스피싱 조직은 자녀의 목소리를 복제한 뒤 부모에게 전화해 마치 납치된 것처럼 흐느끼며 살려달라고 한다거나 급한 일이 있다면서 돈을 빌려달라는 목소리를 들려주는 방식으로 범행한다.

부모와 자식 간의 가족관계라는 특수성을 이용해 자녀의 얼굴이나 목소리를 가짜로 생성한 후 부모가 상황을 판단할 여유를 가질 수 없도록 압박하며 즉각적인 송금을 요구하는 방식이다.

경찰은 보이스피싱 피해 예방을 위해서 딥페이크·딥보이스 기술이 범죄에 악용될 수 있다는 사실을 반드시 숙지해야 한다고 강조한다.

딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 SNS(소셜미디어) 등에 공개된 본인과 가족의 영상·사진·목소리 등은 범죄조직의 표적이 될 수 있다고 했다.

딥페이크 기술은 전문가들조차도 육안만으로는 진위를 판단하기 어려운 만큼 평소에 SNS 등에 불특정 다수가 볼 수 있는 공개 설정으로 게시물을 올리는 것을 지양해야 한다고 지적했다.

경찰청은 실제 납치든 납치를 빙자한 보이스피싱이든 반드시 경찰에 신고해줄 것을 당부했다. 범인이 전활를 끊지 못하도록 협박해 신고하기 곤란한 경우에는 주변 사람에게 도움을 청하거나, 통화하면서 문자메시지로 112에 신고해 자녀의 안전을 확인하는 방식으로 대처해야 한다고 설명했다.

경찰청 관계자는 "경찰은 납치 신고를 접수하면 요구조자의 위치 파악 등 초동조치를 최우선으로 하기 때문에 신고를 해야 요구조자의 안전은 물론 금전 피해까지 예방할 수 있다"고 말했다.

이강준 기자 Gjlee1013@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?