서울대, AI 학습 속도 2배 높인다..데이터 증강 시스템 '리뱀퍼' 개발

이종화 2021. 5. 12. 17:03
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

서울대 공대 전병곤 교수(오른쪽 세번째) 연구팀. [사진 제공 = 서울대]
국내 연구진이 인공지능(AI) 학습 속도를 2배 높일 수 있는 기술 개발에 성공했다.

12일 서울대학교 공과대학은 전병곤 컴퓨터공학부 교수팀이 데이터 증강(Data Augmentation) 과정을 최적화하여 머신러닝 학습 수행 시 기존 시스템 대비 최대 2배 빠른 속도로 수행하는 리뱀퍼(Revamper) 시스템을 개발했다고 밝혔다. 이 시스템은 다양한 분야에서 AI 학습 수행의 효율성을 높여줄 것으로 기대된다.

데이터 증강은 학습 데이터에 임의의 변환 연산을 적용함으로써 실질적인 학습 데이터의 수를 증가시키는 것을 말한다. 데이터 증강은 인공지능 학습 모델의 정확도를 높이지만 학습의 속도를 저하시킨다는 문제가 있다.

전 교수 연구팀은 학습 속도 저하 문제를 해결하기 위해 새로운 데이터 캐싱 시스템인 리뱀퍼를 개발했다. 데이터 캐싱은 생성한 데이터를 저장하고 있다가 요청 시 빠르게 줌으로써 처리 능력을 향상시키는 방법이다. 연구팀은 학습된 모델의 정확도 저하 없이 표본을 재사용하는 '데이터 리퍼비싱(Data Refurbishing)' 기법을 활용했다. 데이터 리퍼비싱은 데이터 증강 과정을 두 부분으로 나누어 부분적인 데이터 증강 연산이 적용된 표본들을 일정 횟수 재사용하고, 학습에 사용하기 전에 나머지 증강 연산을 수행하는 방식이다. 이를 통해 학습 모델 정확도 저하 문제를 해결할 수 있었다. 기존 방식은 최종 증강한 표본을 일정 횟수 재사용하여 학습 속도를 향상시켰지만 모델의 정확도는 저하되는 문제가 있었다.

연구진은 리버비싱 방식을 효율적으로 지원하기 위해 재사용하는 표본들을 여러 학습 스텝에서 고르게 사용하는 새로운 캐싱 시스템인 리뱀퍼를 구현하였다. 리뱀퍼는 오픈 소스 머신러닝 프레임워크인 파이토치(PyTorch) 데이터 로더 대비 최대 2배 빠른 인공지능 학습 속도를 제공한다. 리뱀퍼는 개발 시 사용자의 편의성을 고려하여 설계했으며 기존에 사용하던 파이토치 모델을 리뱀퍼를 이용해 빠르게 수행할 수 있다. 연구진은 리뱀퍼를 파이토치 사용자들이 활용할 수 있도록 공개할 계획이다.

이 연구 결과는 오는 7월 컴퓨터 시스템 분야에서 권위 있는 학회인 'USENIX ATC(Annual Technical Conference)'에서 발표될 예정이다.

전 교수는 이번 연구 성과에 대해 "세계를 선도하는 인공지능 플랫폼 기술을 연속해서 발표하게 되어 기쁘다"며 "앞으로 프렌들리에이아이(friendli.ai)를 통해 초대형 인공지능을 만들어 서비스로 제공하겠다"라고 말했다.

[이종화 기자]

[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?