“4명 중 1명은 딥페이크 음성 감지 못해” 英 연구진 연구 결과 발표

최지원기자 2023. 8. 3. 15:39
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

4명 중 1명은 생성형 인공지능(AI)으로 만들어낸 가짜 음성을 가려내지 못한다는 연구 결과가 나왔다.

2일(현지시간) 영국 유니버시티 칼리지 런던(UCL) 연구진은 529명의 참가자에게 딥페이크 음성을 들려준 결과 73%만이 가짜 음성을 찾았다고 국제학술지 '플로스 원'에 게재했다.

연구진은 "이번 실험의 참가자들은 딥페이크로 만들어진 음성이 나올 수 있다는 사실을 알고 있었음에도 속았다"며 "실제 상황에서는 더 구분하기 어려울 것"이라고 했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

뉴시스
4명 중 1명은 생성형 인공지능(AI)으로 만들어낸 가짜 음성을 가려내지 못한다는 연구 결과가 나왔다. 2일(현지시간) 영국 유니버시티 칼리지 런던(UCL) 연구진은 529명의 참가자에게 딥페이크 음성을 들려준 결과 73%만이 가짜 음성을 찾았다고 국제학술지 ‘플로스 원’에 게재했다.

연구진은 이번 실험에서 영어와 북경어 등 두 가지로 언어로 50개의 딥페이크 음성 샘플을 제작했다. 영어가 아닌 다른 언어 음성을 딥페이크로 제작해 실험에 활용한 건 이번이 처음이다. 그만큼 딥페이크 기술이 정교해졌다는 의미다. 연구진은 “이번 실험의 참가자들은 딥페이크로 만들어진 음성이 나올 수 있다는 사실을 알고 있었음에도 속았다”며 “실제 상황에서는 더 구분하기 어려울 것”이라고 했다.

딥페이크는 실제와 구분이 어려울 만큼 정교하게 조작한 사진이나 영상, 음성 등을 뜻한다. 최근 AI 기술이 빠르게 발전하며 딥페이크로 만들어진 콘텐츠들이 범죄에 악용되는 사례가 늘고 있다. 지난 5월 중국에서는 한 과학기술회사 법인 대표가 돈을 빌려달라는 친구와 영상 통화를 한 뒤 8억 원을 송금한 사례가 있었는데 친구의 얼굴 및 목소리는 모두 딥페이크로 만들어진 가짜였다.

연구진은 논문을 통해 “이번 연구는 딥페이크 음성 탐지가 어렵고, 잘못 사용할 가능성이 크다는 것을 보여준다. 이 위협에 대한 방어가 필요하다”고 밝혔다. 딥페이크 탐지 기술을 개발 중인 우사이먼성일 성균관대 교수는 “정부나 기업 모두 탐지 기술보다는 생성형 AI 기술 개발에 열중하고 있다”며 “탐지 기술도 균형을 맞춰 개발하고 투자해야 한다”고 강조했다.

최지원 기자 jwchoi@donga.com

Copyright © 동아일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?