어렵지만 요령은 있다…‘MIT 피셜’ 딥페이크 구별법 [경제합시다]

KBS 2024. 3. 14. 18:36
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

<경제합시다> 시간입니다.

인공지능이 조작한 영상, '딥페이크' 걱정이 계속 커지고 있죠.

하지만 걱정한다고 AI와 영상의 결합이 멈출까요.

중요한 건 가짜일 수 있다는 '의심', 분간해 낼 '능력'일 겁니다.

워낙 감쪽같아서 눈으로 구별하기 정말 어렵지만, 그래도 몇 가지 요령은 있다고 합니다.

화제의 동영상 AI '소라'가 만든 영상입니다.

요리하는 할머니.

가짜란 걸 알고 봐도, 정말 진짜 같은데 오류가 있습니다.

다시 한번, 손에 집중해서 볼까요.

반죽 숟가락이 갑자기 사라집니다.

이탈리아의 명소 '아말피 해변' 드론 샷입니다.

역시 가짜 영상인데, 여기도 숨은 오류가 있습니다.

우선, 물결의 방향.

해변으로 밀려 와야 하는데 밀려 나갑니다.

계단도 이상합니다.

아무것과도 연결 안 된 말이 안 되는 구조입니다.

[스테판 메서/AI 전문가 : "이런 건 AI가 물리적 세계의 법칙을 이해하지 못한 사례들로 볼 수 있습니다."]

MIT 미디어 연구소가 딥페이크 구별법을 정리했습니다.

총 8가지인데, 모두 '얼굴'에 몰려 있습니다.

'피부 주름과 눈 주름의 나이대가 비슷한가' '눈 주위 그림자는 자연스러운가' '안경 쓴 얼굴이 움직일 때 안경의 반사도 바뀌는가' '말할 때 입술이 자연스러운가' 등입니다.

영상의 길이도 중요합니다.

AI 생성 영상은 아직은 길어야 1분, 1분을 넘기면 진짜일 가능성이 큰 셈입니다.

[스테판 메서/AI 전문가 : "AI 모델들은 대부분 '환각' 현상을 일으킬 때가 있습니다. 갑자기 다른 길로 새버리는 거죠. 영상이 길수록 완성도가 무너질 가능성이 커집니다."]

MIT는 구별법을 직접 연습할 사이트를 소개하고 있습니다.

경험 삼아 해보시는 것도 좋겠습니다.

※ MIT 소개 사이트 : https://detectfakes.kellogg.northwestern.edu/

■ 제보하기
▷ 전화 : 02-781-1234, 4444
▷ 이메일 : kbs1234@kbs.co.kr
▷ 카카오톡 : 'KBS제보' 검색, 채널 추가
▷ 카카오 '마이뷰', 유튜브에서 KBS뉴스를 구독해주세요!

KBS

Copyright © KBS. All rights reserved. 무단 전재, 재배포 및 이용(AI 학습 포함) 금지

이 기사에 대해 어떻게 생각하시나요?