3초면 목소리 복사하는 AI…지인 사칭 보이스피싱에 악용

정윤주 2023. 6. 14. 16:46
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

특정인의 목소리를 그대로 복제하는 인공지능(AI)이 보이스피싱에 활용되면서 피해 사례가 늘고 있다.

13일 미국 매체 악시오스는 자국 컴퓨터 바이러스 백신 업체 맥아피를 인용해 "생성형 AI를 사용하면 3초 분량의 목소리 샘플만 있어도 이를 완벽히 복제해 특정인 말투, 문장 등을 구현할 수 있다"고 보도했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

ⓒYTN

특정인의 목소리를 그대로 복제하는 인공지능(AI)이 보이스피싱에 활용되면서 피해 사례가 늘고 있다.

13일 미국 매체 악시오스는 자국 컴퓨터 바이러스 백신 업체 맥아피를 인용해 "생성형 AI를 사용하면 3초 분량의 목소리 샘플만 있어도 이를 완벽히 복제해 특정인 말투, 문장 등을 구현할 수 있다"고 보도했다.

최근 전 세계에서 범죄 대상자의 지인을 사칭해 금전을 요구하는 사례가 늘고 있다. 가족, 친구, 연인 등의 목소리를 구현한 생성형 AI로 전화를 걸어 사고 등을 핑계로 급전을 요구하는 식이다.

미리 준비한 말을 하는 것뿐 아니라, 상황에 맞는 실시간 대화도 가능해 대응이 어렵다는 지적이다. AI 기술을 활용하면 단 몇 개의 음성 샘플만 가지고도 쉽게 목소리를 만들 수 있다고 업계는 전했다.

실제 맥아피가 올해 1월 27일∼2월 1일 사이 전 세계 18세 이상 성인 7천 명을 대상으로 조사한 결과 응답자의 70%는 AI로 구현된 목소리와 실제 목소리를 구별할 수 없다고 답했으며 10%는 AI 보이스피싱을 겪은 적 있다고 밝혔다. 이 가운데 77%는 실제로 돈을 잃었다.

전문가들은 금전을 요구하는 전화를 받을 경우, 서로만 아는 암호어를 만들었다가 요구하는 편이 좋다고 조언한다. 만약 의심이 갈 경우 전화를 일단 끊고 다시 거는 것도 좋은 방법이라고 악시오스는 전했다.

YTN 정윤주 (younju@ytn.co.kr)

[저작권자(c) YTN 무단전재 및 재배포 금지]

Copyright © YTN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?