자녀 목소리로 "돈 보내줘"....신기술로 잡는다
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
갈수록 수법이 진화하고 있는 보이스피싱 사기에 내 가족의 음성을 AI로 위조하는 딥페이크 기술까지 결합된다면 피해자들은 속수무책으로 당할 수 밖에 없는 실정이다.
AI로 위조된 음성을 탐지해내는 기술이 활성화되면 보이스피싱 예방뿐 아니라 공격자가 특정한 개인이나 공인을 흉내 내 명예를 훼손하는 가짜 뉴스, 신원 합성을 통한 사기 등의 예방에도 활용될 수 있을 것으로 전망됐다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
[한국경제TV 박근아 기자]
갈수록 수법이 진화하고 있는 보이스피싱 사기에 내 가족의 음성을 AI로 위조하는 딥페이크 기술까지 결합된다면 피해자들은 속수무책으로 당할 수 밖에 없는 실정이다.
실제로 2019년 영국 한 에너지 회사는 최고경영자(CEO) 목소리를 AI가 위조한 보이스피싱 공격을 받아 24만3천달러를 송금하는 금융사기에 휘말리기도 했다.
이같은 딥페이크 범죄를 예방하기 위한 기술개발에 연구진은 박차를 가하고 있다. 15일 정보통신기획평가원(IITP) 주간기술동향에 따르면 정수환 숭실대 정보통신전자공학부 교수는 특정인의 목소리를 딥페이크로 모방한 음성을 탐지하는 소프트웨어 기술을 내년 12월을 목표로 개발 중이다.
기존의 보이스피싱 탐지 기술은 범죄에 활용된 데이터베이스와 단어를 비교해 유사도를 판단하는 것이었다면, 정 교수 팀이 개발하는 기술은 음성의 조작된 음성과 실제 음성의 특징을 딥러닝 학습을 통해 그 차이점을 탐지해낸다는 차이가 있다.
스마트폰 등 단말기에 해당 기술을 탑재하면 범죄를 예방할 수 있다.
정 교수 연구팀은 기술동향 보고서에서 "최근 딥러닝 음성 합성 기술이 발전하면서 특정 대상을 겨냥한 음성 조작이 가능해졌고 실제 구분이 쉽지 않은 단계로 가고 있어 보이스피싱 조직이 이를 활용하면 거의 완벽하게 대상을 속일 수 있다"고 우려했다.
국내에서도 성우, 유명인 등의 목소리를 딥페이크 기술로 복제해 원하는 내용의 글을 음성으로 변환해주는 음성 합성 기술 개발이 시작되고 있는 상태여서, 범죄에 악용될 가능성이 제기된다고 보고서는 지적했다.
보고서는 "AI를 활용한 보이스피싱 위험이 많이 증가했지만, 변조 음성 탐지 기술은 거의 없는 상황"이라며 "해외 연구는 주로 영어 발화에 대한 연구이기 때문에 한국어 딥페이크 음성 탐지 연구가 필요하다"고 강조했다.
AI로 위조된 음성을 탐지해내는 기술이 활성화되면 보이스피싱 예방뿐 아니라 공격자가 특정한 개인이나 공인을 흉내 내 명예를 훼손하는 가짜 뉴스, 신원 합성을 통한 사기 등의 예방에도 활용될 수 있을 것으로 전망됐다.
(사진=연합뉴스)
박근아기자 twilight1093@wowtv.co.kr
Copyright © 한국경제TV. 무단전재 및 재배포 금지.