[윤희영의 News English] AI 악용해 더 정교해진 보이스 피싱

윤희영 기자 2024. 7. 8. 23:55
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

일러스트=최정진

과거 보이스 피싱(voice phishing)은 목소리를 흉내 내는(impersonate voices) 수준이었던 데 비해 최근 AI(인공지능·artificial intelligence) 기술로 목소리를 합성한(synthesize voices) 보이스 피싱은 누구라도 속일 수 있을 만큼 정교해졌다(become sophisticated enough to fool anyone). 가령 아이가 납치됐다며(be kidnapped) 몸값으로 당장 현금을 달라고 한다고(demand an immediate cash ransom) 전화를 걸어왔을 때 전화 건너편 목소리가 어설픈 흉내(clumsy imitation) 정도가 아니라 영락없는 아이 목소리로 들린다는 것이다.

리더스다이제스트에 따르면, 신종 AI 목소리 사기꾼(voice scammer)들은 페이스북·인스타그램 등 소셜미디어에 널려 있는 녹음들 중에서 목표물을 정하고(select and collect targets) 수집한다. 몇 초짜리 녹음(a few-second recording)만 있어도 금세 그 사람의 목소리를 복제해낼(clone the person’s voice) 수 있다. AI를 이용해 목소리의 말씨(accent), 음색(tone), 음의 높이(pitch), 말투(way of talking) 등을 모두 학습시킨 뒤 자신들이 꾸민 각본대로 읽게 한 AI 생성 녹음 내용을 전화로 들려준다.

사기꾼(con artist)들이 만들어낸 대본엔 납치된 자녀, 교통 사고를 내(be involved in a car accident) 상대 차량 수리비를 물어줘야 하는(pay for the the other party’s car repairs) 남편, 가짜 계약서를 들먹이며 급히 입금하라는(order an immediate deposit based on a fake contract) 회사 임원 등 온갖 그럴싸한 긴급 상황(plausible emergency situations)이 연출된다. 특히 곤경에 처한 사랑하는 가족의 다급한 목소리를 듣는(hear urgent voices from loved ones in distress) 건 충격적이고 무섭다. 더욱이 AI로 평상시 목소리를 합성해 말투나 어조까지 똑같으니 이내 공황 상태에 빠져 정신을 못 차리게 된다(panic and lose their composure).

그렇다면 무엇보다도 우선 그런 대상이 되는 걸 피하는(avoid being targeted in the first place) 게 바람직하지만, 일단 그런 수상한 전화를 받았을 땐 어떻게 해야 할까.

먼저 목소리에 이상한 점이 없는지 주의 깊게 들어본다(listen carefully for any abnormalities). AI가 생성했더라도 평상시와 다른 부자연스러운 억양, 합성 잡음 등 오류(glitches such as unusual unnatural intonation and synthetic noise)를 느낄 수 있다. 그리고 잇달아 가족에 관한 질문을 퍼부어 상응하는 답변이 계속 따라오는지(keep corresponding appropriately) 확인한다.

가장 바람직한 건 가족끼리 본인 여부를 확인할(verify identity) 수 있는 비밀 문구를 미리 지정해놓는(assign a secret phrase ahead of time) 것이라고 한다. 군대에서 아군을 확인하기 위해 주고받는 암구호 같은 걸 정해놓으라는(decide on a password) 얘기다.

[영문 참조자료 사이트]

https://www.rd.com/article/ai-scam/?_cmp=readuprdus&_ebid=readuprdus312024&_mid=682270&ehid=a18d22eb68950e7ad262b00aa03c2e0459c6e8ac&_PermHash=88e7e4ee5a3ac4eee0bf85dbb855499933bb07805e3d2ffeeec3105db5377d82&tohMagStatus=NONE

https://helpcenter.trendmicro.com/en-us/article/tmka-19303

https://www.newyorker.com/science/annals-of-artificial-intelligence/the-terrifying-ai-scam-that-uses-your-loved-ones-voice

https://www.cnbc.com/2024/01/24/how-to-protect-yourself-against-ai-voice-cloning-scams.html

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?