[S리포트] "진짜 같은 가짜"… 딥페이크 대처하는 방법은

김성아 기자 2024. 8. 31. 07:12
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[AI가 낳은 괴물 '딥페이크']④ 보안업계 대응 기술 개발 박차
[편집자주] 인공지능(AI) 기술이 발전할수록 우리의 삶은 윤택해지고 편리해질 것으로만 생각했다. 관련 기술 활용이 늘고 사회 곳곳에서 부작용이 나타나면서 기대는 우려가 됐다. AI로 사람의 얼굴 등을 합성에 가짜를 만드는 '딥페이크'가 대표적이다. 신기하고 재미있어서 하나둘씩 만든 자극적인 영상과 이미지로 고통받는 이들은 이를 범죄로 규정하고 처벌을 촉구한다. 생활 속에 파고든 '딥페이크 성범죄'는 더 이상 두고 보기 어려운 상황으로 치달았다. 더 많은 피해자가 양산되지 않도록 인식 개선과 관련 제도 마련이 시급하다.

'딥페이크'(인공지능 기반 이미지 합성)를 범죄에 악용하는 사례가 끊이지 않는 가운데 딥페이크에 대응하는 기술도 함께 발전하고 있지만 전문가들은 딥페이크 대응 기술은 생성형 인공지능(AI)의 발전 속도를 따라잡지 못해 관련법 개정이 함께 이뤄져야 한다고 강조했다. /사진=이미지투데이
'딥페이크'(인공지능 기반 이미지 합성)를 범죄에 악용하는 사례가 끊이지 않자 딥페이크에 대응하는 기술도 함께 발전하고 있다. 하지만 전문가들은 딥페이크 대응 기술은 생성형 인공지능(AI)의 발전 속도를 따라잡지 못한다며 관련법 개정이 함께 이뤄져야 한다고 주장한다.

딥페이크는 AI를 기반으로 만들어낸 가짜 콘텐츠를 뜻한다. 최근 국내에서 SNS(사회관계망서비스)를 중심으로 거짓 정보와 불법 합성물을 퍼트리는 디지털 범죄에 악용돼 사회적인 문제가 됐다.

SNS를 통한 딥페이크 범죄가 확산하면서 딥페이크 탐지 대응 기술에 대한 관심도 뜨겁다. 지난 30일 라온시큐어와 샌드랩 등 딥페이크 관련 대응 기술을 개발하는 정보보안 기업들 주가는 2거래일 동안 40% 이상 상승하기도 했다.

라온시큐어는 올 하반기에 기존 모바일 보안 시스템에 자체 개발한 '딥페이크 감지 안면인식 기술'과 'AI가 생성한 콘텐츠 탐지 기술'을 탑재할 예정이다. 샌즈랩은 딥페이크 영상과 이미지를 보다 정확하고 정밀하게 찾아내기 위한 기술 개발에 집중하고 있다. 이를 위해 심층 학습 기반의 알고리즘과 '멀티모달 데이터 분석 기법'을 개발하고 있다.

해외 기업들도 딥페이크 대응 기술 개발에 박차를 가한다. 대표적인 딥페이크 대응 기술은 영상 합성물을 탐지하고 가짜 영상을 추적·삭제하는 방식이다. AI 기술로 얼굴 변화를 감지하거나 음성과 입 모양의 부자연스러운 부분을 분석하는 것이다. 인텔은 2022년 가짜 동영상을 탐지하는 '페이크 캐처' 기술을 개발했다. 인공지능으로는 재현하기 힘든 얼굴의 혈류 변화로 영상의 진위를 가리는데 정확도는 96%에 달한다.

딥페이크를 가려내는 또 다른 기술로는 눈에 보이지 않는 워터마크를 콘텐츠에 삽입하는 것이 거론된다. AI가 생성한 콘텐츠라는 사실을 식별할 수 있는 방법이다. 구글 딥마인드도 지난해 8월 인공지능만 파악할 수 있는 흔적을 남겨 생성된 이미지를 식별하는 '신스ID' 기술을 공개했다.

전문가들은 딥페이크 규제 관련 법 제도의 보완도 함께 이루어져야 한다고 지적했다. 새로운 기술이 나오면 그 기술의 악용에 대응할 수 있는 기술을 마련하는 식으로 창과 방패의 싸움이 이어지고 있어 탐지 기술만으로 딥페이크를 완전히 없애는 건 어렵다.

김승주 고려대 정보보호대학원 교수는 "기술 개발을 통해 딥페이크를 막는다는 것은 굉장히 안일한 생각이다"라며 "딥페이크를 탐지하는 기술이 등장해도 이를 우회하는 기술이 금방 나오고 있다"고 말했다. "인텔의 경우도 실험실 환경에서의 정확도는 96%였지만 실제 환경에서는 그 정도의 정확도가 나오지 않았다"고 했다.

세계 주요국에서는 기술의 한계를 극복하기 위해 AI 규제에 초점을 둔 법제를 하나둘 내놓고 있다. 미국 캘리포니아주는 AI로 인해 피해가 발생할 경우 개발사에 책임을 지우는 규제 법안을 추진하고 있다. 유럽연합(EU)은 AI 위험 수준에 따른 차등 규제를 담은 'AI 법'을 세계 최초로 통과시켰다. AI 시스템을 쓰는 모든 사람에게 책임을 부과할 것을 명시하기도 했다. 일본은 지난 5월 AI 규제 방침 등을 밝혔다.

한국은 정부 주도로 21대 국회에서 'AI 기본법'이 발의됐지만 여·야 정쟁에 발이 묶여 제대로 된 논의도 없이 폐기됐다. 전문가들은 AI 생성물에 가상 정보 표시를 의무화하는 법안을 비롯해 딥페이크 방지를 위한 제도 보완과 예산 확보가 시급한 상황이라고 강조했다.

김명주 서울여대 정보보호학과 교수는 "AI 기술의 발전과 함께 부작용과 역기능도 심화하고 있다"며 "문제는 관련 제도나 규제는 함께 발전하지 않고 교육도 함께 이뤄지지 않는다는 것"이라고 했다. "14조2항에서 규정한 불법 합성물 처벌 기준은 유포할 목적이 있어야 하는데 피해의 심각성을 고려해 처벌을 강화할 필요가 있다"며 "교육부에서도 디지털 교과서를 내놓는 것에 앞서 디지털 윤리 교육을 우선시 해야 한다"고 덧붙였다.

김성아 기자 tjddk99@mt.co.kr

Copyright © 머니S & moneys.co.kr, 무단 전재 및 재배포 금지

이 기사에 대해 어떻게 생각하시나요?