[팩트체크] 북한군 러시아 파병 추정 영상 조작일까?

박성훈 기자 2024. 10. 25. 16:16
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

지난 18일 우크라이나 전략소통정보보안센터(SPRAVDI)가 북한군이 러시아 군수품을 받는 장면이라며 공개한 영상.
국가정보원에 이어 미국 국방부와 북대서양조약기구(나토·NATO)가 북한의 러시아 파병을 확인하면서 국내외 긴장감이 커지고 있습니다.

그동안 북한이 파병에 대해 입장을 내지 않아 여러 논란이 불거졌는데요.

이는 우크라이나 전략소통·정보보안센터(SPRAVDI)가 지난 18일 공개한 영상 때문입니다.

동양인으로 보이는 사람들이 군복을 입고 줄을 서 물품을 받는 모습으로, 라오스군이라거나, 딥페이크 영상이란 주장까지 나왔습니다.

JTBC가 영상의 사실 여부에 대해 동영상과 이미지, 소리 등으로 나눠 다양한 검증 프로그램을 이용해 팩트체크했습니다.

① AI 영상 조작이다?


우크라이나 정보보안센터(SPRAVDI) 텔레그램 계정. 영상 아래 '독점. 북한 군인들이 러시아 장비를 보급받는 모습. 최근 72시간 이내에 입수된 영상. 이곳은 러시아 극동의 세르기예프스키 훈련장'이라고 적혀 있다.

최초로 영상이 공개된 곳은 우크라이나 전략소통센터(SPRAVDI)입니다.

영상의 원본 검증을 우선으로 판단해 관련 계정에 접속해 동영상을 내려 받았습니다.

JTBC가 활용한 프로그램은 인비드(InVID)·딥웨어(Deepware)·하이브 모더레이션(Hive Moderation) 3가지입니다.

국내외 언론이 팩트체크 과정에서 활용하고 있는 분석 도구들입니다.

인비드는 이미지·비디오 파일의 신뢰성을 검증합니다.

가짜뉴스 확산을 막기 위해 유럽연합(EU)의 지원을 받아 AFP 통신이 개발했습니다.

인비드에선 해당 영상에 대해 특정 인물의 얼굴이 인식됐다며 '딥페이크(deepfake·AI로 합성된 가짜 영상) 가능성 95%'라는 결과가 나왔습니다.

인비드(InVID) 프로그램을 이용한 영상 신뢰성 검증 결과, 특정 인물 얼굴 영상을 근거로 '95% 조작 가능성' 결과가 나왔다. [출처:인비드 화면 캡처]

반면 실시간 오픈소스를 통해 AI 합성 영상, 조작 여부 등을 판별하는 '딥웨어'(Deepware) 프로그램은 'No deepfake Detected (딥페이크는 탐지되지 않음)' 판정을 내놨습니다.

딥웨어(Deepware) 프로그램에서는 북한군 추정 영상이 딥페이크가 아닌 것으로 검증했다.
또 '하이브 모더레이션'(Hive Moderation)도 'the input is not likely to contain AI generated or deepfake content'라며 AI 합성·영상 조작 가능성이 '0%'로 결론냈습니다.

하이브 모더레이션은 1회 영상 판독 분량이 20초로 제한되어 있어 총 27초 영상을 0~20초와 21~27초로 나눠 확인했습니다.

팩트체크팀은 다른 판정 결과가 나온 인비드를 개발·사용하고 있는 AFP 통신 본사 담당자에게 관련 결과의 재확인을 요청했습니다.
'북한군 추정' 영상의 인비드 검증 문제 관련, AFP 통신 담당자가 JTBC에 보낸 답변.

AFP 담당자는 “인비드 프로그램 중 딥페이크(AI 영상 조작)는 얼굴을 스크린해 검증하는 방식인데 영상의 화질이 떨어지는 경우 결과가 정확하지 않을 수 있다”며 “압축이 많이 된 영상은 얼굴을 모자이크 된 것처럼 보이게 하기 때문에 AI 조작을 잘못 구분하는 경우가 있다”고 설명했습니다.

'북한군 추정' 영상의 경우 등장 인물이 많고, 화질 문제 등으로 조작 여부 판정에 한계가 있다는 설명입니다.

팩트체크팀은 다시 해당 영상을 33개의 개별 프레임(이미지)으로 나눠 인비드와 하이브 모더레이션으로 검증했습니다.

그 결과 인비드에선 프레임별로 조작 가능성이 최소 1%(두 장면)에서 최대 58%(한 장면)로 나타났습니다.
영상은 1~58% 범위 내 조작 가능성으로 탐지됐고 전체 영상 33프레임의 조작 가능 평균값은 24%였다. [출처:인비드]

하이브 모더레이션은 0~2.6%의 결과가 나왔습니다.

인비드의 경우 조작 가능성이 70% 이상일 경우 조작이 있는 것으로 판정하고 있습니다.

즉 33개 프레임을 나눠 검증한 결과 2개 프로그램 모두 조작이 아니라는 결론이 나온 겁니다.
하이브 모더레이션 검증 결과 조작 가능성은 0~2.6%로 판별됐다. [출처:하이브 모더레이션]

아울러 33개 프레임이 과거 다른 영상이나 이미지로 사용된 흔적도 추적했습니다.

이미지 검증 프로그램 틴아이(tineye)의 리버스(Reverse Image Search) 검색 결과 동영상이 최초 등장한 10월18일 이전엔 존재하지 않는 것으로 확인됐습니다.

북한군이 보급받는 장면으로 알려진 영상이 AI 조작 영상이란 주장은 사실이 아닌 것으로 확인됐습니다.

② 북한군 아닌 라오스군이다?



영상에 등장하는 동양인으로 보이는 사람들이 북한군이 아니라 라오스군이라는 주장도 나왔습니다.

러시아와 라오스가 지난 9월 25일 러시아 연해주 지역에서 전술 교류 차원의 연례 군사 훈련(LAROS 2024)을 했던 사실 때문에 나온 주장으로 보입니다.

라오스 국방부와 해외 언론 보도 등을 통해 공개된 라오스군 군복을 확인해봤습니다.

또 라오스 국영 통신사가 공개한 러시아군과 훈련 당시 모습도 찾아 비교했습니다.

다양한 사진을 통해 라오스군의 군복이 영상 속 군복과 다르다는 점을 확인할 수 있었습니다.
우크라이나 정보당국 공개한 영상(왼쪽 위)과 라오스 국영통신이 공개한 지난 9월 25일 러시아-라오스 합동 훈련 사진(왼쪽 아래, 오른쪽 위아래). [출처:SPRAVDI,라오스 국영통신 캡처]

라오스 군복이 러시아 군복이나 영상 속에 나오는 군복에 비해 위장 무늬가 더 뚜렷하고 화려합니다.

또 영상 속 북한군 추정 사람들의 모자는 뒷부분이 뚫려 있지만, 라오스군 모자는 막혀 있는 점도 확인할 수 있습니다.

따라서 라오스군이라는 것은 사실과 다릅니다.

③ 러시아군 보급품이다?


한 병사가 들고 나가는 박스에 'БТК'라고 적힌 스티커가 붙어 있다.

우크라이나는 해당 영상을 북한군이 러시아군에게서 보급품을 받는 장면으로 설명하고 있습니다.

러시아 보급품인지 여부를 확인하기 위해 영상을 정밀 분석해봤습니다.

영상 속 다양한 장면에서 러시아로 추정할 수 있는 장면을 확인한 결과, 물품이 담겨 있던 것으로 추정되는 상자에 주목했습니다.

상자의 포장에 사용된 테이프에 'БТК'(베테카)라는 상표가 붙어 있습니다.

확인 결과 해당 업체는 러시아 의류회사로 일반 옷 판매는 물론 러시아군에 군복과 각종 물품을 공급하고 있는 업체였습니다.
러시아 의류업체 'БТК'(BTK. 베테카)에서 납품 중인 군복. [출처:러시아 홈페이지 https://russian-army-goods.com/btk-group]

러시아의 군용 물품을 판매하는 사이트 4곳을 통해 확인했습니다.

해당 사이트들에는 '북한군 추정' 영상 속 군인들이 입은 옷과 유사해 보이는 제품들도 있었습니다.

러시아 국방부 홈페이지를 통해 해당 업체가 2014년까지 군에 다양한 의류 등을 납품한 것이 확인됐습니다.

또 최근 우크라이나와 러시아의 전쟁에서 러시아군에 물자를 보급하며 활발히 활동하고 있다는 보도도 확인됐습니다.

따라서 영상 속에서 러시아군 물품이 지급된 건 사실로 볼 수 있습니다.

④ '북한군 추정 음성' 조작이다?



해당 영상에선 “넘어가지 말그라”(9초), “뒤에 바짝 따라붙어라”(15초) 등 북한 어투가 들립니다.

영상에 삽입됐을 가능성도 있어 별도로 검증했습니다.

먼저 원본 영상에서 오디오를 추출한 뒤 인비드 보이스 클로닝(voice cloningㆍ음성복제) 여부를 확인한 결과 음성 복제 가능성이 평균 32%였고 북한군 추정 음성이 들어있는 부분(9초, 15초)의 조작 가능성은 20%였습니다.

인비드 보이스 클로닝 분석 결과 AI 생성 오디오 가능성은 평균 32%로 나타났다. [출처:인비드]


'하이브 모더레이션'은 AI 오디오 생성 가능성을 '0'으로 판정했습니다.

하이브 모더레이션의 음성 분석 결과 AI 생성 음성일 가능성은 '0'으로 나타났다. [출처:하이브 모더레이션]

관련 영상을 전문가들에게 의뢰해 봤습니다.

해당 영상을 분석한 정수환 숭실대 전자정보공학부 교수는 ”전체 음성 파일을 넣은 결과 딥페이크 가짜 음성일 확률이 0.07%로 탐지됐다”며 “짜깁기 여부는 모르겠지만 실제 사람의 음성은 맞는 것으로 판단된다”고 밝혔습니다.

정수환 숭실대 교수의 '북한군 추정' 영상 음성 분석 결과 가짜 음성일 가능성이 0.7%인 것으로 탐지됐다. [출처:정수환 숭실대 교수]
정 교수의 분석에 따르면 음성 파일에서 발화 있는 부분만 따로 추출해서 분석해 본 결과 8s ~ 11s : 0.08%, 15s ~ 20s : 0.07%, 23s ~ 27s : 4.77%로, 발화 부분은 모두 실제 사람 음성으로 탐지됐습니다.

반면 유하진 서울시립대 컴퓨터과학부 교수는 “긴 문장이 아니라 짧은 단어 위주여서 편집의 증거를 찾는다는 것이 불가능하다”며 “판별이 불가능하다”는 입장을 전해 왔습니다.

종합적으로 볼 때 음성이 조작됐는지에 대해선 판정이 어려웠습니다.

⑤ 인공기 사진 조작이다?


이런 가운데 지난 21일 북한 인공기가 러시아 국기와 나란히 꽂혀 있는 사진이 소셜미디어(SNS)에 올라와 실제 사진인지 여부에 관심이 집중됐습니다.

깃발이 꽂힌 곳이 최근 러시아가 재점령한 도네츠크주 포크로우스크 전선 인근이란 점에서 러시아의 선전전이란 주장이 나오면서 사실 여부가 논란이었습니다.

조작 여부를 확인해봤습니다.

인비드 포렌식 검증 결과 인공기가 AI 이미지 조작을 통해 삽입됐을 가능성은 낮은 것으로 나타났다. [출처:인비드 포렌식]
인비드 합성 이미지(Synthetic Image) 분석에선 조작 가능성 6%로 나타났고 인비드 포렌식(Forensic) 검증에선 국기가 인위적으로 삽입됐을 때 발견되는 콘트라스트(대조) 차이가 거의 없었습니다.

틴아이(TinEye) 검증에서 사진이 최초 공개된 10월 21일 이전 유사 사진은 없는 것으로 확인됐다. [출처:틴아이 캡처]
또 이미지의 최초 원본을 확인해 조작 여부를 판별하는 이미지 검증 프로그램 '틴아이'(Tineye)를 돌려본 결과 전체 712억 장의 사진과 비교했을 때 해당 사진이 처음 공개된 10월 21일 이전에 유사 사진은 없었던 것으로 나타났습니다.

이를 토대로 JTBC 팩트체크팀은 인공기가 걸린 사진은 조작되지 않은 사진으로 판정했습니다.

〈자료조사 및 취재지원 : 이채리 박지은〉

관련 취재 협업 : 구글 뉴스이니셔티브 및 AFP

Copyright © JTBC. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?