KAIST, AI 아는 만큼 확신하도록…‘노이즈 예열 학습’ 제시

김지현 2026. 4. 27. 09:51
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI)의 가장 큰 위험으로 지적돼 온 과도한 확신(overconfidence) 문제를 해결할 새로운 접근법이 제시됐다.

한국과학기술원(KAIST) 연구진이 AI가 스스로 모르는 상황을 인식하도록 하는 학습 방법을 개발, 과신을 줄이고 신뢰성을 높일 수 있는 기반을 마련했다.

예열 과정을 거친 AI 모델은 초기 확신도가 우연 수준에 가까운 낮은 값으로 정렬되며, 기존 초기화에서 나타나던 과신 편향이 크게 완화됐다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

백세범 석좌교수팀, 과도한 확신 원인 규명
자율주행·의료·생성형 AI 기술 등 포함
딥러닝 기반 AI 전반에 활용 기대
KAIST 백세범 석좌교수, 천정환 석사.ⓒKAIST

인공지능(AI)의 가장 큰 위험으로 지적돼 온 과도한 확신(overconfidence) 문제를 해결할 새로운 접근법이 제시됐다.

한국과학기술원(KAIST) 연구진이 AI가 스스로 모르는 상황을 인식하도록 하는 학습 방법을 개발, 과신을 줄이고 신뢰성을 높일 수 있는 기반을 마련했다.

KAIST는 뇌인지과학과 백세범 석좌교수 연구팀이 딥러닝(deep learning)에서 사용돼 온 무작위 가중치 초기화가 AI의 과신을 유발하는 근본적인 원인일 수 있음을 규명했다고 27일 밝혔다.

연구팀은 이를 해결하기 위해 실제 데이터를 학습하기 전 무작위 노이즈로 신경망을 짧게 학습시키는 예열(warm-up) 전략을 제안했다.

연구팀은 AI의 과신 문제가 학습 이후만이 아니라 학습의 출발점인 초기화 단계에서부터 이미 나타난다는 점에 주목했다.

실제로 무작위로 초기화된 신경망에 임의의 데이터를 입력한 결과 아무것도 배우지 않은 상태임에도 불구하고 높은 확신도를 보이는 현상이 확인됐다.

이러한 특성은 생성형 AI에서 사실과 다른 내용을 만들어내는 환각(hallucination) 문제로 이어질 수 있다.

연구팀은 해결의 실마리를 생물학적 두뇌에서 찾았다. 인간의 두뇌는 태어나기 전부터 외부 자극 없이도 자발적 신경 활동을 통해 신경회로를 형성한다.

연구팀은 이 개념을 인공신경망에 적용해 실제 학습에 앞서 무작위 노이즈 입력으로 짧은 사전 학습을 수행하는 예열 단계를 도입했다.

이는 AI가 본격적으로 학습을 시작하기 전 스스로의 불확실성을 먼저 조정하는 과정에 해당한다.

예열 과정을 거친 AI 모델은 초기 확신도가 우연 수준에 가까운 낮은 값으로 정렬되며, 기존 초기화에서 나타나던 과신 편향이 크게 완화됐다.

즉 실제 데이터를 배우기 전 ‘나는 아직 아무것도 모른다’는 상태를 먼저 학습하게 되는 것이다.

그 결과 모델의 정확도와 확신도가 자연스럽게 일치하는 방향으로 개선됐다.

특히 처음 보는 데이터에 대한 반응에서도 차이가 나타났다.

기존 모델은 학습하지 않은 데이터에도 높은 확신을 보이며 잘못된 답을 제시하는 경향이 있었지만 예열 학습을 적용한 모델은 확신도를 낮춰 모른다고 판단하는 능력이 뚜렷하게 향상됐다.

이를 통해 학습 데이터와 다른 분포를 가진 데이터를 구별하는 분포 밖 데이터 탐지에서도 높은 성능을 보였다.

연구는 AI가 단순히 정답을 맞히는 수준을 넘어 무엇을 아는가와 무엇을 모르는가를 구분하는 능력, 즉 메타 인지(meta-cognition)를 갖출 수 있는 가능성을 제시했다.

백세범 석좌교수는 “연구는 두뇌 발달 과정을 모사함으로써 AI가 인간과 좀 더 유사하게 자신의 지식 상태를 인식할 수 있음을 보여준 사례”며 “정확도를 높이는 것을 넘어 인공지능이 스스로의 불확실성을 판단하는 원리를 제시했다는 데 의의가 있다”고 설명했다.

기술은 자율주행, 의료 AI, 생성형 AI 등 높은 신뢰성이 요구되는 분야는 물론, 거의 모든 딥러닝 모델의 초기화 방식에 적용될 수 있어 AI 전반의 신뢰성을 높이는 핵심 기술로 활용될 것으로 기대된다.

이번 연구는 AI 분야 국제 학술지 ‘네이처 머신 인텔리전스’에 지난 9일자로 온라인 게재됐다.

한편 이번 연구는 한국연구재단의 이공분야기초연구사업과 KAIST 싱귤래러티 연구사업의 지원을 받아 수행됐다.

Copyright © 데일리안. 무단전재 및 재배포 금지.