단국대 김선오 교수팀, AI 판단 신뢰성 높이는 기술 개발

김형운 기자 2026. 4. 20. 14:21
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

단국대학교 김선오 교수(AI융합대학 컴퓨터공학과)팀이 엄대호 교수(서울시립대)와 공동으로 인공지능(AI)의 신뢰도를 저하시키는 '적대적 공격(Adversarial Attack)'을 효과적으로 방어하는 기술을 개발했다.

'적대적 공격(Adversarial Attack)'은 이미지나 데이터 등에 사람이 인지하기 어려울 정도로 미세한 변형을 추가해 AI가 전혀 다른 대상으로 인식하도록 만드는 방법이다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

“AI를 속이는 적대적 공격 탐지해 보정”
단국대 김선오 교수(왼쪽)와 서울시립대 엄대호 교수<단국대 제공>
단국대학교 김선오 교수(AI융합대학 컴퓨터공학과)팀이 엄대호 교수(서울시립대)와 공동으로 인공지능(AI)의 신뢰도를 저하시키는 '적대적 공격(Adversarial Attack)'을 효과적으로 방어하는 기술을 개발했다.

'적대적 공격(Adversarial Attack)'은 이미지나 데이터 등에 사람이 인지하기 어려울 정도로 미세한 변형을 추가해 AI가 전혀 다른 대상으로 인식하도록 만드는 방법이다.

 이는 AI가 산출한 결과를 왜곡시켜 자율주행, 보안, 의료영상 등 높은 정확성과 신뢰성이 요구되는 분야에서 심각한 위험 요소로 지적돼 왔다.

 기존 AI 모델은 하나의 입력된 이미지에 의존해 판단을 내리는 방식으로 작은 교란에도 쉽게 잘못된 결과를 산출할 수 있는 한계가 있었다.

 연구팀은 이러한 한계를 극복하기 위해 'MAC(Multi-View Guided Adaptive Counterattack)' 기법을 제안했다. 'MAC'는 하나의 입력된 이미지로 결과를 판단하는 기존 AI 모델과 달리 여러 이미지를 동시에 분석해 변형 및 오염 정도를 추정하고, 이에 맞춰 결과를 보정하는 방식이다.

 특히 이번 기술은 기존 모델을 재학습하지 않고도 추론 단계에서부터 적용이 가능한 것이 특징이다. 추가적인 학습 비용 없이도 추론 속도와 메모리 효율성을 확보해 안정적인 성능을 유지할 수 있다.

 연구팀은 다양한 데이터셋과 공격 환경에서 성능을 검증해 실제 활용 가능성도 입증했다.

 김선오 교수는 "AI가 입력된 데이터를 다양한 시각에서 재검증하고, 공격 정도에 따라 스스로 보정 하도록 설계한 것이 이번 연구의 핵심"이라며 "AI의 안전성과 신뢰성이 중요한 자율주행, 보안, 의료영상 등 다양한 분야에서 활용될 것으로 기대한다"고 밝혔다.

 용인=김형운 기자 hwkim@kihoilbo.co.kr

Copyright © 기호일보. 무단전재, 재배포, AI학습·활용 금지.