딥페이크의 시대, 진짜뉴스 신뢰 더 커질것

황순민 기자(smhwang@mk.co.kr) 2024. 7. 22. 16:03
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

조시 골드스타인 CEST 연구원

올해는 전 세계 76개국(총인구수 기준 42억명 추정)에서 전국 선거가 치러지는 '슈퍼 선거의 해'다. 전 세계적으로 인공지능(AI) 기반 딥페이크(Deepfake)가 각국에서 열리는 선거에 영향을 미쳐 혼란을 야기할 수 있다는 우려가 나왔다. 특히 정보기술(IT)업계에서는 딥페이크 기술이 고도화·상용화될수록 가짜뉴스 등 허위정보에 따른 '탈진실(post truth)'을 넘어 '진실의 종말(end of truth)'로 이어질 수 있다는 지적이 제기된다.

최근 매일경제와 만난 조시 골드스타인 조지타운 안보 및 신기술 센터(CSET) 연구 펠로(박사)는 "AI로 인한 가짜 정보를 완전히 제거할 수 있는 해결책은 없지만, 영향을 완화할 수 있는 전략들이 있다"면서 '디지털 리터러시'의 중요성을 강조했다. 그는 "디지털 리터러시는 사람들이 온라인에서 정보를 획득함에 있어 모범 사례가 무엇인지를 알려주는 가이드가 될 수 있다"면서 "특히 온라인상에서 계정이 신뢰할 수 있는지 확인하는 방법을 가르치는 것을 의미한다"고 강조했다. 예컨대 사람들이 한 도메인에서 정보를 발견했을 주류 언론과 같이 높은 신뢰성을 갖춘 곳으로 이동해 중복되는 보도가 있는지 확인하는 과정 등을 거칠 수 있다는 설명이다. 골드스타인 박사는 "AI가 실제 콘텐츠와 구별하기 어려운 콘텐츠를 점점 더 만들 수 있다는 점에 동의한다"면서 "완화책을 찾는 측면에서 무언가가 가짜라는 것을 증명하기보다는, 무언가가 진짜라는 것을 증명하는 방향을 생각해볼 수 있다"고 했다. 골드스타인 박사는 CSET에서 사이버 AI 프로젝트를 담당하고 있는 전문가다. 그는 스탠퍼드 인터넷 감시소에서 근무하며 SNS 플랫폼상에서 행해지는 은밀한 작전 조사, 민주주의 국가에 대한 해외 간섭 영향 연구, 신기술이 미래 선전 캠페인에 미치는 영향 탐색 등에 대해 연구한 바 있다. 이 같은 연구를 바탕으로 미국 국방부, 국무부, 기술 전문 기자들을 대상으로 조언을 해왔다.

AI 콘텐츠가 난무하는 시대에는 신문사와 같은 레거시 미디어의 역할이 더 커질 수 있다는 게 골드스타인 박사의 생각이다. 그는 "AI가 생성한 콘텐츠가 실제로 널리 퍼져 있고 사람들이 실제와 생성된 것을 구별하는 데 어려움을 겪는다면 모든 정보에 대한 신뢰 하락으로 이어질 것이라고 가정하는 것이 일부 연구자들의 생각"이라면서 "AI가 생성한 콘텐츠가 더 널리 퍼지면 사람들은 이미 신뢰하는 출처를 두 배로 늘릴 수도 있고 따라서 레거시 미디어의 역할이 더 커질 수 있다"고 진단했다.

AI로 인한 부작용을 막기 위해서는 글로벌 차원의 협력이 필수적이다. 골드스타인 박사는 "나라마다 문화적 규범과 기술의 수준이 매우 다르기 때문에 소셜 미디어가 국가별로 취급되거나 규제되는 방식이 다양하다"면서 "사람들은 각기 다른 종류의 규범과 기대를 갖고 있고 (국제 협력에 있어) 이를 인식하는 것이 중요하다"고 말했다.

최근 테크업계에서도 'AI 안전'에 주목하고 있다. 특히 AI 모델을 개발하고 관련 서비스를 운영하는 주요 테크 기업들은 'AI 오남용'을 방지하기 위한 자체 대책 강화에 역점을 두고 있다. 앞서 빅테크 23개사는 지난 2월 독일 뮌헨안보회의에 참석해 딥페이크 부작용을 차단하는 것을 주요 내용으로 하는 'AI의 기만적 사용에 대처하기 위한 기술 협약'을 발표한 바 있다. 이들 23개사는 우선 선거 관련 AI 생성 콘텐츠의 위험성을 최소화하기 위한 기술을 개발하는 데 협력할 계획이다. AI가 생성한 콘텐츠를 식별·판독하는 기술 표준 등에 대한 논의가 활발히 이뤄질 것으로 보인다. 특히 '눈에 보이지 않는(비가시적)' 워터마크를 서비스에 적용하는 방안 등도 활발히 논의되고 있다. 현재 업계에서는 MS와 어도비가 중심이 된 비가시적 워터마크 'C2PA'와 구글 딥마인드가 개발한 'SythID' 등이 표준적인 대안으로 거론된다.

테크기업들의 노력과 함께 학계와의 협력 필요성도 갈수록 커지고 있다. 골드스타인 박사는 "AI 회사가 자신의 도구를 악의적으로 사용하는 것을 발견하면서 연구자들이 데이터를 분석할 수 있는 연구자들과 관계를 발전시키기를 바란다"며 "이것은 모든 사람에게 이점이 있다"고 강조했다.

[황순민 기자]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?