'눈으로 봐도 속는 세상'…딥페이크 대처법은 [탐사보도 뉴스프리즘]
[오프닝: 이광빈 기자]
안녕하십니까. 이광빈입니다. 우리 사회의 문제점들을 진단하고, 지속가능한 사회를 모색하는 뉴스프리즘 시작합니다.
이번주 뉴스프리즘이 풀어갈 이슈, 함께 보시겠습니다.
[영상구성]
[이광빈 기자]
얼마 전에 저희 프로그램에서 '보이스 피싱'을 주제로 다루면서 딥페이크 기술을 이용한 영상 보이스피싱의 위험성도 경고했는데요. '딥페이크'는 인공지능 기술인 '딥러닝'과 가짜를 의미하는 '페이크'의 합성어입니다. AI 기술을 이용해 만든 가짜 영상물을 의미하는데요, 영화에서는 흥미를 돋우는 유용한 기술로 쓰이기도 합니다.
그러나 '보이스 피싱' 뿐만 아니라 '가짜 정보' '가짜 뉴스' 등으로 악용돼 우리 생활에 더 깊숙이 파고들고 있습니다. 딥페이크가 소셜미디어를 통해 어떻게 악용되는 지, 법적으로 보이스피싱 '가짜 정보'를 어떻게 규제해야 하는지 살펴보겠습니다. 먼저 우리가 노출돼 있는 딥페이크 악용 실태를 한미희 기자가 짚었습니다.
[생활 속으로 파고든 딥페이크…가짜뉴스와 함께 범람 / 한미희 기자]
[기자] 영화 '아이리시맨'에서 70대 후반이었던 배우 로버트 드 니로와 알 파치노는 등장인물의 청장년 시절을 직접 연기했습니다.
노배우들의 자연스러운 젊은 모습을 만들어낸 건 AI 기술이었습니다.
<가이 윌리엄스 / '웨타'의 시각효과 수퍼바이저> "딥페이킹은 매우 쉽습니다. 딥페이크도 학습에 의존합니다. 다양한 각도와 조명, 상황의 얼굴 사진 1만장을 입력합니다. 더 많은 사진을 제공할수록 더 많은 정보를 소화해 더 나은 결과를 얻을 수 있습니다.
지난여름 할리우드 배우들은 작가들과 함께 60여년 만에 동반 파업을 벌였는데,
그 이유 중 하나는 AI 기술이 보편화하면서 자신의 외모와 목소리가 무단으로 사용되고 결국 생계에 실존적 위협이 될 것이라는 우려 때문이었습니다.
배우 톰 행크스는 최근 AI로 만들어진 자신의 이미지가 동의 없이 광고에 쓰였다며 주의를 당부하기도 했습니다.
소셜미디어를 통해 유포되는 딥페이크 대부분은 포르노물일 정도로 초창기부터 그 위험성을 드러냈습니다.
유명 여성 연예인이 주로 피해를 봤지만, 미성년자 등 일반인들도 쉽게 그 대상이 될 수 있습니다.
딥페이크는 전쟁 상황에서도, 정치권에서도 악용됐습니다.
러시아에 침공당한 우크라이나 대통령이 자국 군대에 항복을 촉구하는 영상은 그 수준이 조악해 금세 가짜인 것이 드러났지만,
미국 국방부 근처에서 대형 폭발이 발생했다는 가짜 뉴스와 함께 올라온 사진은 한동안 확산하며 잠시 주가가 출렁이기도 했습니다.
내년 미국 대선을 앞둔 상황에서 재선에 도전하는 전·현직 대통령들도 딥페이크의 희생양이 됐습니다.
도널드 트럼프 전 대통령이 성 추문으로 기소를 앞둔 상황에서 수갑을 찬 채 거칠게 연행되는 모습의 사진이 확산했고,
조 바이든 대통령의 목소리를 사용해 백악관 회견에서 혐오 발언을 하는 가짜 영상이 만들어지기도 했습니다.
<조 바이든 / 미국 대통령 (현지시간 10월 30일) > "딥페이크는 AI가 생성한 오디오와 비디오를 사용해 평판을 훼손하고 가짜뉴스를 퍼뜨리며 사기를 저지릅니다. 내가 나오는 걸 본 적이 있는데, '내가 언제 이런 말을 했지?'라고 말했죠."
바이든 대통령은 이날 AI를 규제하는 내용의 행정 명령에 서명했습니다.
연합뉴스 한미희입니다.
#딥페이크 #가짜뉴스 #AI
[이광빈 기자]
딥페이크를 범죄에 악용하는 사례가 끊이지 않는 가운데, 딥페이크인지 아닌지 구별하는 기술도 함께 발전하고 있습니다. 이 탐지 기술로 딥페이크 범죄를 뿌리 뽑을 수 있을까요. 홍서현 기자가 알아봤습니다.
[딥페이크 탐지기술 수준은…"법제도 보완 필요" / 홍서현 기자]
[기자] 고도의 조작된 딥페이크 영상을 만들어내는 인공지능.
영상이 변조됐는지도 인공지능으로 알아낼 수 있습니다.
<홍서현 기자> "딥페이크 영상의 허점을 어떻게 찾아내는 건지, 직접 살펴보겠습니다."
영상 파일과 분야를 선택하면 분석이 시작됩니다.
100%에 가까울수록 변조가 많이 된 건데, 50% 이상이면 조작된 영상으로 판단합니다.
불법 영상물을 이용한 각종 범죄에 대응하는 데 활용할 수 있습니다.
<이정수 / 딥브레인AI 사업개발그룹 팀장> "가짜뉴스, 딥페이크 영상이 많이 나오고 있는데 이걸 실제적으로 탐지할 수 있는 솔루션은 없다보니까 이런 부분에 많이 활용할 수 있다고 보고 있고요."
해외에서도 딥페이크 탐지 기술 개발이 활발합니다.
글로벌 딥페이크 탐지 시장은 지난해 5억 달러에서 2027년 18억 달러로 성장할 전망입니다.
인텔은 지난해 가짜 동영상을 탐지하는 페이크 캐쳐 기술을 개발했습니다.
인공지능으로는 재현하기 힘든 얼굴의 혈류 변화로 영상의 진위를 가리는데, 정확도는 96%에 달합니다.
구글 딥마인드도 인공지능만 파악할 수 있는 흔적을 남겨 생성된 이미지를 식별하는 신스ID 기술을 개발했습니다.
하지만 탐지 기술만으로 딥페이크를 완전히 없애는 건 어렵다는 지적이 나옵니다.
<정수환 / 숭실대학교 전자정보공학부 교수> "창과 방패 싸움처럼 계속 탐지기술을 또 회피하는 기술을 만들 수가 있어요, 탐지를 못하도록."
기술의 한계를 극복하기 위해 해외 각국에서 규제를 내놓고 있습니다.
내년 대선을 앞둔 미국은 딥페이크 이미지를 이용한 가짜뉴스의 규제를 검토하고 있습니다.
유럽연합 의회도 지난 6월 무분별한 인공지능 사용을 규제하는 법안을 통과시켰습니다.
전문가들은 인공지능의 역기능에 대한 경각심이 필요하다고 강조합니다.
<우사이먼성일 / 성균관대학교 소프트웨어학과 교수> "다른 사람에게 피해를 줄 수 있다는 사고방식과 인식 자체를 많이 심어줄 수 있는 게 중요하고. 그것에 대한 강력한 처벌이나…"
딥페이크 탐지 기술과 더불어 관련 법제도의 보완도 필요하다는 지적입니다.
연합뉴스TV 홍서현입니다.
#인공지능 #딥페이크 #범죄 #탐지기술
[코너 : 이광빈 기자]
딥페이크에 대한 악용 사례들이 도드라져 보인 탓에 딥페이크의 장점이 묻히기도 합니다. '표현의 자유'가 도를 넘지 않는다면 딥페이크 기술은 영화와 드라마 외에도 정치·사회 풍자 콘텐츠에 사용될 수 있습니다.
영국의 채널4가 2020년 성탄절에 엘리자베스 2세의 딥페이크를 왕실의 동의 없이 방송했는데요. 진짜 엘리자베스 2세의 성탄절 메시지가 BBC방송 등에서 방영된 직후 딥페이크 기술로 만든 가짜 여왕의 성탄절 메시지를 방송에 내보냈습니다. 가짜 엘리자베스 2세는 틱톡에서 유행하는 춤을 추기도 했습니다.이 영상은 화면이 흔들리면서 가짜 여왕의 목소리를 연기한 배우 모습이 드러나는 것으로 마무리됐는데요. 영상은 왕실의 항의 없이 정당한 '표현의 자유' 콘텐츠로 받아들여졌습니다.
2020년에 미국에선 유튜브로 '새시 저스티스'라는 풍자 쇼가 만들어졌는데요. 도널드 트럼프 전 대통령 등 유명 인사들의 도플갱어가 딥페이크 기술로 등장합니다. 이런 풍자 영상에선 '시청자들에게 그들이 보는 모든 것을 믿지 말라'고 경고합니다.이렇게 시민들이 딥페이크 기술을 인지하고 풍자를 즐길 수 있으면 좋을 텐데요. 문제는 풍자라는 힌트를 주지 않고 악용하는 딥페이크 생산물입니다. 특히 타임라인 위주로 흘러가 버리고 유포 속도로 빠른 소셜미디어에선 딥페이크 거짓 콘텐츠들이 검증 기회 없이 팩트로 인식되는 게 가장 큰 문제입니다.
그만큼 플랫폼 업체들이 조작된 딥페이크 콘텐츠를 걸러내야 할 텐데요. 대부분의 소셜미디어 서비스에선 악의적으로 조작된 딥페이크를 금지하고 있습니다. 그러나 모니터링에 구멍이 많다는 지적이 끊이지 않습니다.
페이스북 등 소셜미디어에선 유명인을 사칭한 사기 광고가 판치고 있는데요. 유명인을 내걸고 사람을 모은 뒤 주식리딩방으로 유도하는 수법입니다. 딥페이크 기술도 아닌, 아예 대놓고 유명인을 도용한 사기 광고도 규제가 안 되는 상황인데요. 이런 현실에서 딥페이크 기반 거짓 콘텐츠들을 얼마나 걸러낼 수 있을 지 우려가 커지고 있습니다.
[이광빈 기자]
빠르게 진화하는 데다, 이용 방법도 점점 손쉬워지는 딥페이크 기술. 선거에서 악용될 경우 유권자들에게 잘못된 정보가 전달될 수 있는데요. 내년 총선을 앞두고 대책이 필요해 보입니다. 신현정 기자입니다.
[딥페이크에 노출된 한국…총선 앞두고 정치권도 우려 / 신현정 기자]
[기자] "유명 영화배우 성룡이 말을 하고 있는 영상입니다.
이건 제 증명사진인데요. 성룡이 말을 하는 영상에 제 증명사진을 입혀보겠습니다.
불과 30초도 안돼서 딥페이크 영상이 추출됐습니다. 이처럼 딥페이크 기술은 빠르게 발전하고 널리 보급됐습니다."
내년 총선을 앞두고 정치권에선 이 딥페이크 기술이 악용될 수 있다는 우려가 나온 지 오래입니다.
선거에서 AI가 활용되기 시작한 건 지난 대선 때. 윤석열 당시 후보를 본뜬 'AI 윤석열'이 대표적입니다.
하지만 대통령 당선 이후 치러진 지방선거에서 'AI 윤석열'이 쓰인 영상이 등장해 중립 유지 의무를 위반했다는 논란이 불거졌습니다.
하지만 AI가 활용된 불법 콘텐츠가 버젓이 유통되더라도 삭제와 같은 효과적인 조치가 이뤄지지 않는 것으로 드러났습니다.
방송통신심의위원회가 최근 3년간 적발한 불법 성적 허위 영상물은 9천여 건.
이중 시정조치를 요구한 뒤 삭제된 콘텐츠는 불과 410건으로, 5%도 안 됩니다.
이미 국회에는 악용 가능성을 차단하기 위한 법안이 여럿 발의된 상태입니다.
이상헌 더불어민주당 의원은 AI를 이용한 콘텐츠에 별도 표기를 의무화하는 법안을 발의했습니다.
정희용 국민의힘 의원은 AI 기술을 이용해 허위사실을 공표하면 처벌받도록 하는 법안을,
남인순 더불어민주당 의원은 선거운동 시 허위 사실이 포함된 딥페이스 영상 제작과 유통을 금지하는 법안을 발의했습니다.
하지만 모두 수개월째 계류된 상태로, 이번 21대 국회에서 통과되지 않으면 자동 폐기됩니다.
다만 당장 5개월 앞으로 다가온 내년 총선을 위한 특단의 대책이 시급한 상황.
<임종인 / 고려대학교 정보보호대학원 석좌교수> "현 정부에서 범정부TF, 그리고 거기에는 외국 통신, 인터넷 서비스 업자까지, 민간 쪽까지 전부 아우르는 TF를 만들어서 신속하게 가짜뉴스에 대한 대처가 필요하고요. 국제 협력 이 부분이 병행돼야 효과를 발휘할 거다…"
선관위가 지난 8월부터 특별대응팀을 띄워 허위정보를 모니터링하겠다고 밝혔지만, 효과적인 대응을 위해선 범정부 차원의 논의가 필요하다는 지적입니다.
연합뉴스TV 신현정입니다.
[클로징: 이광빈 기자]
이달 초 영국 정부는 전 세계 주요 국가 정부 고위관계자와 함께 관련분야 기업 임원과 전문가를 모았습니다. 바로 첫 AI 안보 정상회의를 연 것인데요. AI 기술이 발전하면서 전 세계적으로 관련 규범의 필요성이 커지고 있기 때문입니다. 챗GPT 등장 이후 생성 AI를 활용한 허위정보 유포와 악용사례가 곳곳에서 보고되면서 'AI 윤리'가 중요 과제로 떠올랐습니다. 이와 관련된 업계의 대응도 나오고 있습니다.
오픈AI는 각 분야 전문가로 구성된 팀이 AI가 인간에게 위협적이거나 비윤리적 내용을 만들거나 유포하는지 찾고 있습니다. 마이크로소프트와 구글 등도 비슷한 형태의 조직을 운영하는 것으로 전해졌습니다. 국내 기업들도 비슷한 행보를 보이고 있습니다. SK텔레콤의 AI 에이닷에는 7개의 AI실행 윤리가 입력돼 있고, 네이버도 AI의 편향성을 제거한 대량의 한국어 데이터 모음을 구축하고 있습니다.
우리 정부도 지난달 말 AI 윤리·신뢰성 확보 추진 계획을 발표하는 등 행동에 나서고 있습니다. AI 알고리즘이 공개된 뒤에 발견된 문제점을 개선하려면 너무 늦을 수 있습니다. 개발과 기획 단계에서 발생할 수 있는 문제를 예방하는 데 더 관심을 쏟아야 할 때입니다.
이번 주 뉴스프리즘 여기까지입니다. 시청해주신 여러분 고맙습니다
#딥페이크 #가짜뉴스 #AI윤리
PD 김효섭 AD 김희정
연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23
(끝)
네이버에서 연합뉴스TV를 구독하세요
연합뉴스TV 생방송 만나보기
균형있는 뉴스, 연합뉴스TV 앱 다운받기
Copyright © 연합뉴스TV. 무단전재 및 재배포 금지.