MIT, AI 이미지 생성 원천 방지 '포토가드' 공개

남혁우 기자 2023. 8. 1. 17:08
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

매사추세츠공과대학(MIT) 연구팀이 생성 인공지능(AI)의 이미지 합성 기능을 방지하는 기술을 공개했다.

31일(현지시간) MIT뉴스 등 보도에 따르면 MIT 컴퓨터과학·인공지능연구소(CSAIL) 연구팀이 무단 이미지 조작을 방지하는 포토가드 기술을 공개했다.

연구원이 발표한 연구논문에 따르면 포토가드는 인코더 공격과 확산 두가지 방식으로 생성AI의 합성을 원천적으로 방해하거나 합성 이미지를 쉽게 감지할 수 있도록 지원한다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

생성AI 특성에 맞춰 이미지 생성 원천차단

(지디넷코리아=남혁우 기자)매사추세츠공과대학(MIT) 연구팀이 생성 인공지능(AI)의 이미지 합성 기능을 방지하는 기술을 공개했다.

31일(현지시간) MIT뉴스 등 보도에 따르면 MIT 컴퓨터과학·인공지능연구소(CSAIL) 연구팀이 무단 이미지 조작을 방지하는 포토가드 기술을 공개했다.

연구원이 발표한 연구논문에 따르면 포토가드는 인코더 공격과 확산 두가지 방식으로 생성AI의 합성을 원천적으로 방해하거나 합성 이미지를 쉽게 감지할 수 있도록 지원한다. 

포토가드 기술 소개(이미지=MIT)

인코더 공격은 이미지에 사람 눈으로는 판단할 수 없는 미세한 불규칙성이 반복해서 발생하게 만든다. 이를 통해 생성AI가 이미지를 제대로 학습하지 못해 원하는 결과물이 나오지 못하도록 방지한다

확산은 AI모델이 이미지를 생성할 때 사람의 눈으로 알아채지 못할 수준의 미세한 변화를 만들어 합성임을 확인할 수 있도록 만드는 기술이다. 이 방법은 이미지 합성 과정에서 파악할 수 없어 배포 후에도 사실 확인을 명확히 할 수 있다.

논문의 주 저자인 하디 살만은 "포토가드는 아직 모든 이미지를 보호할 수 없다. 악의적인 의도를 가진 개인이 이미지를 편집하거나 리버스 엔지니어링을 시도할 수도 있다"며 "이 기술이 효과적이기 위해서는 정책 입안자는 이미지 조작으로부터 사용자 데이터를 보호하도록 의무화하는 규정을 마련하는 것을 고려하는 등 이해 관계자의 통합된 대응이 필요하다"고 말했다.

남혁우 기자(firstblood@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?