"엔비디아 GPU, 저리가라"…성능 최대 50% 향상된 `국산 AI 반도체` 나왔다

이준기 2023. 8. 4. 11:36
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

생성형 AI인 '챗GPT'와 같은 거대 언어모델의 추론 연산에 활용할 수 있는 국산 AI반도체 기술이 개발됐다.

앤비디아의 고성능 GPU에 비해 성능이 뛰어나고, 가격 대비 성능도 좋아 향후 거대 AI 연산을 위한 AI 반도체로 쓰일 것으로 기대된다.

챗GPT는 거대 언어모델을 기반으로 하기 때문에 기존 AI와 달리 방대한 규모의 AI 모델로, 대규모 데이터 연산을 위해 수많은 고성능 GPU(그래픽처리장치)가 필요해 천문학적 비용이 든다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

KAIST, 거대언어모델 연산 위한 'LPU' 개발
추론에 필요한 연산 고속 수행..고성능 GPU 대체
KAIST는 기존 고성능 GPU보다 성능이 최대 50%, 가격 대비 성능이 2.4배 향상된 AI 반도체 'LPU'를 개발했다. 사진은 LPU 칩과 가속 어플라이언스 KAIST 제공
김주영 KAIST 전기·전자공학부 교수

생성형 AI인 '챗GPT'와 같은 거대 언어모델의 추론 연산에 활용할 수 있는 국산 AI반도체 기술이 개발됐다. 앤비디아의 고성능 GPU에 비해 성능이 뛰어나고, 가격 대비 성능도 좋아 향후 거대 AI 연산을 위한 AI 반도체로 쓰일 것으로 기대된다.

KAIST는 김주영 전기·전자공학부 교수 연구팀이 기존 AI 반도체보다 가격 대비 성능이 2.4배 향상된 AI 반도체 'LPU'를 개발했다고 4일 밝혔다.

챗GPT는 거대 언어모델을 기반으로 하기 때문에 기존 AI와 달리 방대한 규모의 AI 모델로, 대규모 데이터 연산을 위해 수많은 고성능 GPU(그래픽처리장치)가 필요해 천문학적 비용이 든다.

LPU는 메모리 대역폭 사용을 높이고, 추론에 필요한 모든 연산을 고속으로 수행할 수 있는 연산 엔진을 갖추고 있다. 이런 특성으로 LPU 기반 가속 어플라이언스 서버는 업계 최고 성능인 GPU인 엔비디아 A100 기반 슈퍼컴퓨터보다 성능이 최대 50% 가량 뛰어나다. 가격 대비 성능도 2.4배 가량 높다.

최근 급격하게 늘어나고 있는 생성형 AI 서비스 수요에 따라 고성능 GPU를 대체할 수 있을 것으로 연구팀은 기대했다.

이와 관련 연구팀은 지난달 미국 샌프란시스코에서 열린 국제 반도체 설계 자동화 학회(DAC)에서 LPU를 선보여 공학 부문 최고 발표상을 수상했다. DAC에는 인텔, 엔비디아, AMD, 구글, 삼성, TSMC 등 세계적 반도체 기업들과 하버드대, MIT, 스탠퍼드대 등 세계 최고 대학들이 참여했다.

김주영 KAIST 교수는 "미래 거대 AI 연산을 위한 새로운 프로세서인 LPU를 기반으로 글로벌 AI 반도체 시장을 개척하고, 빅테크 기업들의 기술력보다 우위를 선점할 수 있도록 연구를 이어가겠다"고 말했다.

한편 이번 연구는 김 교수가 창업한 하이퍼엑셀을 통해 진행됐다.이준기기자 bongchu@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?