사용자 관심 변해도 기존 지식 유지하며 학습하는 AI 개발
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
한국과학기술원(KAIST) 연구팀이 사용자의 관심이 급변하더라도 기존 지식을 유지하며 새로운 지식을 축적하는 인공지능(AI) 연속 학습 기술을 선보였다.
KAIST는 이재길 전산학부 교수 연구팀이 다양한 데이터 변화에 적응하며 새로운 지식을 학습하고, 기존 지식을 망각하지 않는 새로운 연속 학습 기술을 개발했다고 5일 밝혔다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
[이데일리 강민구 기자] 한국과학기술원(KAIST) 연구팀이 사용자의 관심이 급변하더라도 기존 지식을 유지하며 새로운 지식을 축적하는 인공지능(AI) 연속 학습 기술을 선보였다.
최근 연속 학습은 훈련 비용을 줄이도록 프롬프트(prompt) 기반 방식이 대세를 이루고 있다. 작업에 특화된 지식을 프롬프트에 저장한다. 적절한 프롬프트는 입력 데이터에 추가한뒤 심층신경망에 전달해 과거 지식을 활용한다.
연구팀은 기존 방식과 달리 작업 간 변화에 적응할 수 있는 적응적 프롬프팅(adaptive prompting)에 기반한 연속 학습 기술을 제안했다. 현재 학습하려는 작업이 기존에 학습했던 작업과 유사하다면 새로운 프롬프트를 생성하지 않고 그 작업에 할당된 프롬프트에 추가로 지식을 축적한다.
이미지 분류 문제에 대해 방법론을 검증한 결과, 기존 프롬프트 기반 연속 학습 방법론에 비해 작업 간 변화 정도가 큰 환경에서는 최대 14%의 정확도를 높였다. 작업 간 변화가 클 수도 있고 작을 수도 있는 환경에서는 최대 8%의 정확도를 향상시켰다.
제안한 방법에서 유지하는 클러스터 개수는 실제 유사한 작업의 그룹 개수와 거의 같은 것으로 나타났다. 온라인 클러스터링을 수행하는 비용도 작아 대용량 데이터에도 적용할 수 있다.
이재길 교수는 “연속 학습 분야의 새로운 지평을 열 만한 획기적인 방법”이라며 “앞으로 실용화와 기술 이전이 이뤄지면 심층 학습 학계와 산업계에 효과를 줄 수 있다”고 말했다.
연구 결과는 지난 달에 국제학술대회 ‘국제머신러닝학회(ICML) 2024’에서 발표됐다.
강민구 (science1@edaily.co.kr)
Copyright © 이데일리. 무단전재 및 재배포 금지.
- '무기종목 돌풍' 전투민족의 위엄…활·총·칼 金 9개 비결은
- "남편 양복이 젖을 정도로"...'성추행 누명' 숨진 교사, 7년 뒤[그해 오늘]
- 김예지 “0점 쐈을 때는 정말…머스크는 왜 나를?” [파리올림픽]
- 삼성 한달 파업이 남긴 것…'무노동 무임금' 원칙 세웠다
- "집 비번 알려주고도, 오히려 미안하다고"… 청라 이재민의 '눈물'
- 한국 양궁, 사상 첫 올림픽 금메달 5개 싹쓸이...김우진 3관왕[파리올림픽]
- 두 딸 데리고 잠적한 아내, 5년 만에 나타나더니…“460만원 내놔”
- ‘성장’ 의심받는 엔터株, ‘대답’ 내놓은 하이브
- 하자 건수 부풀리고, 소송 부추기고…아파트 '브로커' 주의보
- [정치프리즘]특검·탄핵 밀어붙이는데 지지율은 침몰하는 민주당