접근 쉬운 '딥페이크' 악용 우려…탐지 기술도 진화
[앵커]
이제는 인공지능으로 사람의 얼굴이나 목소리를 정교하게 만들어낼 수 있는 시대입니다.
문제는 누구나 기술에 쉽게 접근할 수 있어 범죄에 악용될 수 있다는 건데요.
이에 따라 '가짜'를 구별해낼 수 있는 경찰의 탐지 기술도 진화하고 있습니다.
문승욱 기자입니다.
[기자]
지난 1월 뉴햄프셔주 민주당 프라이머리 예비선거를 앞두고 유권자들에게 전화가 걸려왔습니다.
<조 바이든 / 미국 대통령 사칭 가짜 음성> "이번 화요일에 투표하는 건 공화당이 도널드 트럼프를 다시 선출할 수 있도록 돕는 것입니다."
언뜻 조 바이든 미국 대통령의 목소리와 똑같지만, 사실 AI로 만든 가짜 목소립니다.
지난해엔 힐러리 클린턴 전 국무장관이 특정 후보를 지지한다는 내용의 가짜 영상이 SNS에 확산되며 논란이 불거졌습니다.
직접 인공지능을 이용해 가짜 목소리를 만들어보겠습니다.
약 1분간 아무 말이나 녹음해 시스템에 입력하면 인공지능이 제 목소리를 자동으로 학습합니다.
학습이 끝나면 원하는 문장을 쓰고 생성 버튼을 누르면 됩니다.
<진짜 목소리> "인공지능이 발달하면서 목소리도 만들어낼 수 있게 됐습니다."
<가짜 목소리> "인공지능이 발달하면서 목소리도 만들어낼 수 있게 됐습니다."
목소리 톤이 매우 유사해 자세히 듣지 않으면 차이를 느끼기 어렵습니다.
하지만 누구나 쉽게 만들 수 있기 때문에 선거운동 방해나 피싱 범죄에 쉽게 악용될 수 있다는 우려가 나옵니다.
이에 경찰은 '딥페이크 탐지 소프트웨어' 등 탐지 기술을 개발해 범죄 단속에 본격적으로 활용하기 시작했습니다.
<임윤상 / 경찰청 사이버성폭력수사계장> "이번에 개발한 소프트웨어는 한국인과 관련한 다양한 데이터 학습이 이뤄져 한국인에 대한 탐지율을 크게 제고했습니다."
소프트웨어의 진위 여부 탐지율은 약 80%에 달하지만, 100%가 아닌 점을 감안해 증거보다는 수사 방향을 설정하는 자료로 활용할 예정입니다.
연합뉴스TV 문승욱입니다. (winnerwook@yna.co.kr)
[영상취재 기자 문영식]
#딥페이크 #딥보이스 #탐지기술
연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23
(끝)
네이버에서 연합뉴스TV를 구독하세요
연합뉴스TV 생방송 만나보기
균형있는 뉴스, 연합뉴스TV 앱 다운받기
Copyright © 연합뉴스TV. 무단전재 및 재배포 금지.