생성 AI 엔진 개발 기업 프렌들리에이아이, 초거대 언어모델 학습 효율성 높이는 BPipe 시스템 발표

조광현 기자(cho.kwanghyun@mk.co.kr) 2023. 7. 18. 10:36
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능 분야 최상위 학회인 ICML 2023에서 7월 26일 최초 공개 및 구두 발표 선정
중간 계산 결과물을 메모리 여유가 있는 GPU에 맡겨 두는 핵심 기술로 학습 효율성 제고
프렌들리에이아이 로고
생성 AI 서빙 엔진 페리플로우(PeriFlow)를 제공하는 스타트업 ‘프렌들리에이아이(FriendliAI)’(대표이사 전병곤)가 챗GPT와 같은 초거대 언어모델의 학습 효율을 획기적으로 끌어올리는 ‘BPipe(비파이프)’ 시스템을 오는 7월 25일 개최되는 국제머신러닝학회(ICML 2023)에서 발표한다고 밝혔다.

최근 챗GPT로 인하여 화두가 되고 있는 초거대 언어모델은 수백에서 수천억 개의 파라미터(매개변수)를 가지고 계산하여 여러가지 언어 생성 업무에서 뛰어난 결과들을 만들어 내는 기술로, 다양한 분야에 활용되고 있다.

초거대 언어모델 분야가 발전하면서 초거대 언어모델을 효율적으로 학습하는 기술도 중요해지고 있다. 초거대 언어 모델을 학습하기 위해서는 엄청난 수의 파라미터(매개변수) 때문에 분산학습이 필수적이다. 분산학습 기술 중 하나인 ‘파이프라인 병렬화’는 서로 다른 GPU가 초거대 언어모델 내의 서로 다른 레이어들을 파이프라인화 하여 처리하는 기술이다. 해당 기술은 각 GPU가 최대로 사용하는 메모리에서 각각 불균형이 생긴다는 단점이 있다.

프렌들리에이아이에서 개발한 BPipe는 학습 시 저장해야 하는 중간 계산 결과물을 메모리 여유가 있는 GPU에 맡겨 두는 새로운 파이프라인 병렬화 방법으로 메모리 불균형을 해결한다. 결과적으로 같은 언어 모델을 더 빠르고 효율적으로 학습이 가능하다.

가령, 기존의 파이프라인 병렬화가 여러 일꾼에게 각각 다른 무게의 짐을 들게 하는 방식이라면, BPipe는 가벼운 무게의 짐을 가진 일꾼이 무거운 무게의 짐을 가진 일꾼의 짐을 필요할 때 잠시 맡아주는 방식이다.

해당 연구 결과는 7월 25일부터 27일까지 미국 하와이에서 열리는 인공지능 분야 최상위 학회인 국제머신러닝학회(ICML, International Conference on Machine Learning)에서 ‘BPipe: Memory-Balanced Pipeline Parallelism for Training Large Language Models’이라는 제목으로 공개될 예정이다. 해당 논문은 학회에 제출된 논문 중에서 상위 2.5% 논문에 주어지는 구두 발표 논문에 채택되어 7월 26일 발표할 예정이다.

한편, 프렌들리에이아이는 생성AI 서빙에 관한 기업들의 페인 포인트를 해결해주는 딥테크 기업으로, 지난해 GPT-3와 같은 언어 모델의 효율을 높이기 위한 ‘동적 배치 처리’와 ‘선택적 배치 처리’라는 핵심 기술을 적용한 엔진을 발표한 바 있다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?