생성 AI 엔진 개발 기업 프렌들리에이아이, 초거대 언어모델 학습 효율성 높이는 BPipe 시스템 발표
중간 계산 결과물을 메모리 여유가 있는 GPU에 맡겨 두는 핵심 기술로 학습 효율성 제고
최근 챗GPT로 인하여 화두가 되고 있는 초거대 언어모델은 수백에서 수천억 개의 파라미터(매개변수)를 가지고 계산하여 여러가지 언어 생성 업무에서 뛰어난 결과들을 만들어 내는 기술로, 다양한 분야에 활용되고 있다.
초거대 언어모델 분야가 발전하면서 초거대 언어모델을 효율적으로 학습하는 기술도 중요해지고 있다. 초거대 언어 모델을 학습하기 위해서는 엄청난 수의 파라미터(매개변수) 때문에 분산학습이 필수적이다. 분산학습 기술 중 하나인 ‘파이프라인 병렬화’는 서로 다른 GPU가 초거대 언어모델 내의 서로 다른 레이어들을 파이프라인화 하여 처리하는 기술이다. 해당 기술은 각 GPU가 최대로 사용하는 메모리에서 각각 불균형이 생긴다는 단점이 있다.
프렌들리에이아이에서 개발한 BPipe는 학습 시 저장해야 하는 중간 계산 결과물을 메모리 여유가 있는 GPU에 맡겨 두는 새로운 파이프라인 병렬화 방법으로 메모리 불균형을 해결한다. 결과적으로 같은 언어 모델을 더 빠르고 효율적으로 학습이 가능하다.
가령, 기존의 파이프라인 병렬화가 여러 일꾼에게 각각 다른 무게의 짐을 들게 하는 방식이라면, BPipe는 가벼운 무게의 짐을 가진 일꾼이 무거운 무게의 짐을 가진 일꾼의 짐을 필요할 때 잠시 맡아주는 방식이다.
해당 연구 결과는 7월 25일부터 27일까지 미국 하와이에서 열리는 인공지능 분야 최상위 학회인 국제머신러닝학회(ICML, International Conference on Machine Learning)에서 ‘BPipe: Memory-Balanced Pipeline Parallelism for Training Large Language Models’이라는 제목으로 공개될 예정이다. 해당 논문은 학회에 제출된 논문 중에서 상위 2.5% 논문에 주어지는 구두 발표 논문에 채택되어 7월 26일 발표할 예정이다.
한편, 프렌들리에이아이는 생성AI 서빙에 관한 기업들의 페인 포인트를 해결해주는 딥테크 기업으로, 지난해 GPT-3와 같은 언어 모델의 효율을 높이기 위한 ‘동적 배치 처리’와 ‘선택적 배치 처리’라는 핵심 기술을 적용한 엔진을 발표한 바 있다.
Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지
- “여자가 옷 벗고 돌아다닌다”…출동 경찰 집에 가보니 ‘충격적 장면’ - 매일경제
- ‘에코프로도 울고 간다’…1년 만에 20배 폭등한 이 종목 - 매일경제
- “30만원 조용히 계산”…군인 4명 음식값 대신 낸 중년 男 - 매일경제
- “그냥 쏘렌토 살걸, 괜히 기다렸다”…‘확 바뀐’ 싼타페, 아빠는 괴롭다 [카슐랭] - 매일경제
- [단독] 선진국선 좋다고 난리인데…한국은 병원도 환자도 거부, 왜? - 매일경제
- “다른 곳에 주차”…종이 박스에 적힌 이유 ‘실소’ - 매일경제
- 오직 외국인 관광객만 쓸 수 있다는 일본의 교통카드 실체 - 매일경제
- 위험천만 오송 지하차도서 3명 목숨 구한 화물차 기사 - 매일경제
- 앞다퉈 해변 비치 클럽 오픈한 명품 브랜드…대체 무슨 일이 - 매일경제
- 섬머리그 마치고 호주로 향하는 이현중 “긴 과정 거치는 중, 지켜봐달라” - MK스포츠