"살려달라" 딸 영상 가짜…딥페이크 '보이스피싱 주의보'

김영봉 2024. 11. 7. 18:15
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

최근 자녀 얼굴을 합성한 딥페이크 영상으로 전화금융사기(보이스피싱)가 발생하면서 경찰이 주의를 당부했다.

7일 경찰청 국가수사본부(국수본)에 따르면 외국인 A 씨는 지난달 한국으로 여행 간 딸 B 씨가 납치됐다며 "살려달라"고 우는 영상을 받았다.

A 씨가 받은 납치 영상은 딥페이크를 활용한 가짜 영상으로 조사됐다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


경찰 "SNS에 전체공개 사진 게재 신중해야"

최근 자녀 얼굴을 합성한 딥페이크 영상으로 전화금융사기(보이스피싱)가 발생하면서 경찰이 주의를 당부했다. /남윤호 기자

[더팩트ㅣ김영봉 기자] 최근 자녀 얼굴을 합성한 딥페이크 영상으로 전화금융사기(보이스피싱)가 발생하면서 경찰이 주의를 당부했다.

7일 경찰청 국가수사본부(국수본)에 따르면 외국인 A 씨는 지난달 한국으로 여행 간 딸 B 씨가 납치됐다며 "살려달라"고 우는 영상을 받았다. 영상을 보낸 사람은 "당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라"고 협박했다.

A 씨는 이 사실을 한국에 있는 자국 영사관에 알렸다. 신고를 받고 출동한 한국 경찰은 B 씨가 무사하다는 사실을 확인했다. A 씨가 받은 납치 영상은 딥페이크를 활용한 가짜 영상으로 조사됐다.

경찰은 이런 피해를 예방하기 위해 SNS 등에 본인 또는 가족의 영상이나 사진을 전체 공개로 올리지 않도록 유의해야 한다고 강조했다.

국수본 관계자는 "딥페이크뿐 아니라 목소리를 복제하는 딥보이스 등 인공지능 기술을 악용한 보이스피싱 등이 국내에서도 발생할 가능성이 높다"며 "자녀 등을 납치했다는 협박을 받은 경우 가장 먼저 경찰에 전화나 문자 등으로 신고해 도움을 받아야 한다"고 말했다.

kyb@tf.co.kr

발로 뛰는 더팩트는 24시간 여러분의 제보를 기다립니다.
▶카카오톡: '더팩트제보' 검색
▶이메일: jebo@tf.co.kr
▶뉴스 홈페이지: http://talk.tf.co.kr/bbs/report/write

Copyright © 더팩트. 무단전재 및 재배포 금지.