[비머pick] "올 것이 왔다"…결국 터진 AI 보이스피싱

김도균 기자 2023. 6. 13. 11:15
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

최근 중국에서 화제가 된 영상입니다.

손짓 한 번에 얼굴이 순식간에 바뀝니다.

간단하게 여러 사람의 얼굴로 변신 가능한 앱을 쓴 겁니다.

사기 조직이 SNS를 해킹해 대표 지인의 영상을 확보한 뒤 AI 기술로 얼굴과 목소리를 똑같이 위조한 겁니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

최근 중국에서 화제가 된 영상입니다. 

손짓 한 번에 얼굴이 순식간에 바뀝니다.

[당신과 화상 채팅한 친구가 이렇게 생겼다고 생각하나요?]

간단하게 여러 사람의 얼굴로 변신 가능한 앱을 쓴 겁니다. 

출연진 2명의 사생활 문제가 불거지자 배우 얼굴을 아예 다른 사람으로 바꿔 방영하는 드라마도 있습니다. 

세계적 수준인 중국의 인공지능과 안면인식 기술 때문에 가능한 일인데, 문제는 이를 악용한 범죄입니다.

지난달엔 한 IT 업체 대표마저 영상 통화를 걸어온 사람이 친구인 줄 알고 8억 원을 송금하는 사기 피해가 발생했습니다.

사기 조직이 SNS를 해킹해 대표 지인의 영상을 확보한 뒤 AI 기술로 얼굴과 목소리를 똑같이 위조한 겁니다. 

[AI 얼굴 변형 사기 사건 피해자 : 돈을 요구하면 나도 원래 믿지 않죠. 그런데 그 사람이 영상 통화를 걸어왔어요. 딱 봐도 친구가 맞아요. 그래서 믿었죠.]

라이브 커머스에서도 유명 배우가 진짜 출연한 것처럼 얼굴을 감쪽같이 위조해 논란이 되기도 했습니다.

공안 당국은 영상 통화로 돈을 요청해도 그대로 믿어선 안되며, 정면 얼굴이나 지문, 목소리가 잘 드러나는 사진이나 영상은 SNS에 올리지 말라고 권고하고 있습니다.

중국 조직과 연계된 보이스피싱 범죄가 국내에서도 잇따르는 만큼 우리도 대비가 필요해 보입니다. 

( 취재 : 정영태, 구성 : 김도균, 편집 : 김남우, 제작 : 디지털뉴스기획부 )

김도균 기자 getset@sbs.co.kr

Copyright © Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?