“내년 美대선, AI發 가짜영상 오염 선거 될 수도”

워싱턴=문병기 특파원 2023. 5. 16. 03:03
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

최근 인공지능(AI)을 이용해 인물 사진이나 영상, 오디오를 합성하는 '딥페이크' 기술이 발달하면서 내년 11월 미국 대선이 AI발(發) 가짜 영상에 의한 흑색선전에 오염될 것이란 우려가 고조되고 있다.

AP통신은 14일 "AI가 2024년 대선에 위험을 초래할 수 있다"며 "정교한 생성형 AI는 최소 비용으로 사람의 목소리와 이미지를 복제해 초현실적인 이미지, 비디오, 오디오를 몇 초 만에 만들 수 있다"고 지적했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

트럼프, 바이든 비난 가짜 영상 게재
본인도 ‘성추문 가짜 머그샷’ 대상돼
도널드 트럼프 전 미국 대통령이 자신의 소셜미디어 ‘트루스소셜’에 올린 가짜 영상(위쪽 사진). 누군가가 미 CNN 방송 유명 앵커 앤더슨 쿠퍼가 조 바이든 미 대통령을 비난한다며 가짜 영상을 올리자 트럼프 전 대통령이 이를 퍼 나른 것이다. 아래쪽 사진은 인공지능(AI)으로 제작된 트럼프 전 대통령의 가짜 ‘머그샷’. 사진 출처 트루스소셜 등
최근 인공지능(AI)을 이용해 인물 사진이나 영상, 오디오를 합성하는 ‘딥페이크’ 기술이 발달하면서 내년 11월 미국 대선이 AI발(發) 가짜 영상에 의한 흑색선전에 오염될 것이란 우려가 고조되고 있다. AP통신은 14일 “AI가 2024년 대선에 위험을 초래할 수 있다”며 “정교한 생성형 AI는 최소 비용으로 사람의 목소리와 이미지를 복제해 초현실적인 이미지, 비디오, 오디오를 몇 초 만에 만들 수 있다”고 지적했다.

몇몇 대선주자는 아예 가짜 동영상과 뉴스를 확산시키는 주요 통로가 되고 있다. 도널드 트럼프 전 미 대통령은 13일 소셜미디어 ‘트루스소셜’ 계정에 자신을 종종 비판해온 CNN 방송의 유명 앵커 앤더슨 쿠퍼가 조 바이든 대통령을 비난하는 가짜 영상을 올렸다. 이 영상은 수백만 회 조회됐으며 일부 친(親)트럼프 매체는 이를 기사로 전했다.

트럼프 전 대통령 본인이 가짜 뉴스의 대상이 되기도 했다. 그는 2016년 대선 직전 한때 불륜 관계였던 성인 배우 스토미 대니얼스에게 ‘성추문 입막음’ 용도의 돈을 지급했다는 혐의로 올 3월 미 전현직 대통령 최초로 형사 기소됐다. 당국은 그의 신분을 고려해 ‘머그샷’(피의자의 식별용 사진)을 촬영하지 않았다. 그런데도 온라인에는 그의 가짜 머그샷이 범람했고, 지지자들 사이에서 이를 프린트한 티셔츠가 판매됐다.

미 사이버 보안회사 포스포인트의 펫코 스토야노프 기술책임자는 AP통신에 내년 대선에서 외국 정보기관이 연루된 가짜 정보가 넘쳐날 수 있다고 내다봤다. 집권 민주당의 이베트 클라크 상원의원(뉴욕)은 최근 AI로 만든 영상과 사진에 출처를 의무적으로 표기하도록 하는 법안을 발의했다.

워싱턴=문병기 특파원 weappon@donga.com

Copyright © 동아일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?