순식간에 딥페이크 '뚝딱' 막을 방법 없을까

정동욱 2024. 8. 21. 20:19
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[뉴스데스크]

◀ 앵커 ▶

딥페이크 영상은 누구나 손쉽게 만들 수 있는데요.

이런 편의성은 기술적 측면에서는 강점이지만 범죄에 쉽게 악용될 수 있다는 점에선 문제입니다.

아예 영상이 유통되기 전에 차단하거나 가려내는 방법은 없는 건지, 정동욱 기자가 취재했습니다.

◀ 리포트 ▶

사진 한 장에 뉴스 영상에서 뽑아낸 10초 분량의 음성.

AI 기자를 만드는데 필요한 재료입니다.

불과 몇분 만에 표정과 목소리가 거의 똑같은 가상인간이 등장했습니다.

[AI 생성 영상] "AI 정동욱 기자입니다. 제 모습과 다른 점을 찾을 수 있나요?"

이만큼 정교하진 않지만, 스마트폰 앱으로도 '얼굴 바꾸기' 영상은 뚝딱 만들 수 있습니다.

수많은 얼굴을 내맘대로 합성하고 성별까지 바꿉니다.

문제는 이런 식의 AI 도구가 선거나 성범죄에 악용될 수 있다는 점입니다.

부작용이 계속 지적되자 한편에선 AI로 생성된 영상을 AI가 가려내는 기술도 개발되고 있습니다.

중국에서 사업 중이라 자신을 소개하는 러시아 여성 나타샤.

이 영상을 딥페이크 탐지 프로그램에 입력하자 가짜라고 나옵니다.

알고보니 다른 사람의 얼굴을 딥페이크 기술로 본 뜬 거였습니다.

[올가 로이에크/우크라이나 대학생] "나와 같은 얼굴과 목소리를 갖고 있으며 중국어를 유창하게 구사합니다."

AI로 생성된 영상 특유의 데이터가 있는데 이걸 학습한 AI가 진위를 가려낸 겁니다.

[이정수/생성형 AI 전문기업 이사] "원리는 이제 리얼 데이터하고 페이크 데이터를 50대 50으로 학습을 시키는 거고요…변조율이 50% 이상일 경우에는 페이크(가짜)로 선별을 하고 있고요."

구글·오픈AI 등 빅테크 기업들도 대책을 내놓고 있습니다.

유명인이나 사람이 관여된 폭력·음란·혐오 이미지는 아예 생성을 금지하고, 눈에 안보이는 식별표인 '디지털 워터마크'를 삽입하는 식입니다.

[제이슨 권/오픈AI 최고전략책임자 (지난 12일, 서울AI정책컨퍼런스)] "'우리가 AI를 어떻게 통제할까'는 계속 문제일 것이고 우리는 그걸 인간의 문제로 간주합니다."

기술이 악용되는 건 결국 인간이 내린 선택 때문, 안전한 발전을 위해 규칙을 만드는 것 역시 기술을 만들고 사용하는 인간의 몫입니다.

MBC뉴스 정동욱입니다.

영상취재: 우성훈 / 영상편집: 조민우 / 영상출처: open AI, Google

MBC 뉴스는 24시간 여러분의 제보를 기다립니다.

▷ 전화 02-784-4000
▷ 이메일 mbcjebo@mbc.co.kr
▷ 카카오톡 @mbc제보

영상취재: 우성훈 / 영상편집: 조민우

정동욱 기자(dwjung@mbc.co.kr)

기사 원문 - https://imnews.imbc.com/replay/2024/nwdesk/article/6629144_36515.html

Copyright © MBC&iMBC 무단 전재, 재배포 및 이용(AI학습 포함)금지

이 기사에 대해 어떻게 생각하시나요?