엔비디아 칩 없이 저비용으로 AI 학습 속도 100배 높인다

박주영 2024. 9. 19. 09:20
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

한국과학기술원(KAIST)은 고성능 칩 없이도 인공지능(AI) 모델 학습 속도를 최대 100배 높일 수 있는 기술을 개발했다고 19일 밝혔다.

현재 AI 모델 학습을 위해서는 개당 수천만원에 달하는 엔비디아의 고성능 GPU인 'H100' 여러 개와 이를 연결하기 위해 400Gbps(초당 기가비트)급 고속 네트워크를 갖춘 인프라가 필요하다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

KAIST "대규모 AI 모델 학습 누구나 쉽게 접근"
왼쪽부터 한동수 교수, 임휘준 박사, 예준철 박사과정 [KAIST 제공. 재판매 및 DB 금지]

(대전=연합뉴스) 박주영 기자 = 한국과학기술원(KAIST)은 고성능 칩 없이도 인공지능(AI) 모델 학습 속도를 최대 100배 높일 수 있는 기술을 개발했다고 19일 밝혔다.

현재 AI 모델 학습을 위해서는 개당 수천만원에 달하는 엔비디아의 고성능 GPU인 'H100' 여러 개와 이를 연결하기 위해 400Gbps(초당 기가비트)급 고속 네트워크를 갖춘 인프라가 필요하다.

이 때문에 소수의 거대 IT 기업을 제외한 대부분 기업이나 연구자들은 활용하기 쉽지 않다.

한동수 교수 연구팀은 H100 가격의 10분의 1에 불과한 소비자용 GPU를 활용해 고속 전용 네트워크의 수백∼수천분의 1 수준의 저대역폭에서도 효율적인 분산 학습이 가능한 프레임워크 '스텔라트레인'(StellaTrain)을 개발했다.

학습을 작업 단계별로 나눠 CPU와 GPU가 병렬적으로 처리할 수 있도록 하고, 네트워크 속도에 맞춰 데이터를 효율적으로 압축·전송하는 알고리즘을 개발해 고속 네트워크 없이도 여러 대의 저가 GPU로 빠른 학습을 가능하게 했다.

스텔라트레인 기술을 사용하면 기존 데이터 병렬 학습에 비해 최대 104배 빠른 성능을 낼 수 있다고 연구팀은 설명했다.

한동수 교수는 "대규모 AI 모델 학습을 누구나 쉽게 접근할 수 있게 하는 데 기여할 것"이라며 "저비용 환경에서도 대규모 AI 모델을 학습할 수 있는 후속 연구를 이어 나갈 계획"이라고 말했다.

KAIST 임휘준 박사, 예준철 박사과정 학생, UC 어바인의 산기타 압두 조시 교수가 참여한 이번 연구 결과는 지난달 호주 시드니에서 열린 국제 학술대회 'ACM SIGCOMM 2024'에서 발표됐다.

jyoung@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?