[기고] 신종 사기범죄 '딥보이스'예방하려면
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
인공지능(AI) 기술이 광범위한 분야에 걸쳐 발전을 거듭하고 있다.
딥보이스는 AI 학습 방식을 일컫는 딥러닝(Deep Learning)과 목소리를 뜻하는 보이스 합성어로 단순 모방을 넘어 감정·억양·말투까지 실제 사람 목소리와 비슷하여 음성에 대한 신뢰 체계 근간을 흔들고 있다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능(AI) 기술이 광범위한 분야에 걸쳐 발전을 거듭하고 있다. 나날이 일상생활과 산업 전반으로 점점 더 깊숙이 스며들고 있다. 디지털 시대의 AI는 단순히 인간의 지능을 모방하는 수준을 넘어, 인간의 목소리까지 정교하게 재현할 수 있는 단계에 이르렀다.
그 중심에 가족·지인 등 음성을 정교하게 복제해 그 사람인 척 전화를 걸어 금전을 요구하는 '딥보이스 피싱(DeepVoice phishing)'이 생겨나고 있다. 딥보이스는 AI 학습 방식을 일컫는 딥러닝(Deep Learning)과 목소리를 뜻하는 보이스 합성어로 단순 모방을 넘어 감정·억양·말투까지 실제 사람 목소리와 비슷하여 음성에 대한 신뢰 체계 근간을 흔들고 있다.
얼마 전 "5000만 원만 빨리 입금해 줄 수 있을까? 지금 이 계좌로 좀 보내줘 나중에 설명할게"라며 울먹이며 송금을 요청하는 딸 전화를 받은 아빠가 다시 딸에게 전화를 걸어 재확인해 다행히 피해가 발생하지 않은 사례가 있다.
한 외국기업에서는 AI로 조작된 대표 영상통화로 직원에게 송금을 요청하자 송금한 사례가 있다. 직원들은 실제 회의 영상과 대표 음성이 일치한다고 생각해 의심 없이 돈을 송금했다가 피해를 봤다.
딥보이스는 이처럼 단 몇 분, 심지어 30초 이내 음성 데이터만 있어도 AI가 놀랄 만큼 유사한 목소리를 만들어내 급박한 상황을 연출하고, 피해자를 심리적으로 지배해 송금을 유도하는 범행이라고 할 수 있다.
딥보이스 사기범죄를 예방하려면 다음 사항을 꼭 유념해야 한다. 첫째, 사회관계망서비스(SNS)를 많이 사용하는데 SNS에 음성이 포함된 게시물을 올릴 때 유의해야 한다. 마음대로 데이터를 악용한 딥보이스 매개물로 사용될 우려가 있으니 공개범위 설정 등 개인정보 사용에 유의해야 한다. 둘째, 전화를 걸어온 사람의 목소리가 익숙하더라도 의심스러운 요청을 하면 일단 전화를 끊어야 한다. 이후 영상통화로 본인 확인을 하거나 지인들에게 반드시 사실 여부를 직접 확인해야 한다. 셋째, 최근 국내 통신사에서 딥보이스를 감지하는 기술을 상용화해 무료 서비스를 제공한다고 하니 활용하는 방안도 있다.
어려운 경제상황에서 갈수록 전화사기 수법이 고도화하고 있다. 공무원이나 기관을 사칭해 물품 구매 대금을 받아 챙기는 전화사기 피해 언론 보도도 이어지고 있다. 딥보이스 수법과 예방법을 숙지하고 가족·지인들에게도 널리 알려 최대한 예방했으면 한다.
/최수화 진해경찰서 형사과 순경