KAIST, 성능 2.4배 챗GPT 핵심 ‘AI 반도체’ 개발

2023. 8. 4. 11:19
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT는 거대 언어모델을 기반으로 하고 있어 이를 운영하기 위해서는 수많은 고성능 GPU(그래픽처리장치)가 필요하다.

세계적인 반도체 기술 사이에서 김 교수팀이 거대 언어 모델을 위한 AI 반도체 기술로 유일하게 수상한 것은 매우 의미가 크다.

이번 수상으로 거대 언어 모델의 추론에 필요한 막대한 비용을 획기적으로 절감할 수 있는 AI 반도체 솔루션으로 세계 무대에서 인정받은 것이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

김주영 전기및전자공학 교수팀
DAC 공학부문 최고 발표상 수상

챗GPT는 거대 언어모델을 기반으로 하고 있어 이를 운영하기 위해서는 수많은 고성능 GPU(그래픽처리장치)가 필요하다. 천문학적인 컴퓨팅 비용이 소요된다는 것이 문제로 지적된다.

이에 카이스트(KAIST) 전기및전자공학부 김주영(사진) 교수 연구팀은 챗GPT에 핵심으로 사용되는 거대 언어 모델의 추론 연산을 효율적으로 가속하는 인공지능(AI) 반도체를 개발했다고 4일 밝혔다.

연구팀이 개발한 AI 반도체 ‘LPU(레이턴시 프로세싱 유닛·Latency Processing Unit)’는 거대 언어 모델의 추론 연산을 효율적으로 가속한다. 메모리 대역폭 사용을 극대화하고 추론에 필요한 모든 연산을 고속으로 수행 가능한 연산 엔진을 갖춘 AI 반도체이며, 자체 네트워킹을 내장해 다수개 가속기로 확장이 용이하다. 이 LPU 기반 가속 어플라이언스 서버는 업계 최고 고성능 GPU인 엔비디아 A100 기반 슈퍼컴퓨터보다 성능은 최대 50%, 가격 대비 성능은 2.4배 가량 높였다. 이는 최근 급격하게 생성형 AI 서비스 수요가 증가하고 있는 데이터센터의에서 고성능 GPU를 대체할 수 있을 것으로 기대한다.

이번 연구는 김주영 교수의 창업기업 ㈜하이퍼엑셀에서 수행했으며 지난달 12일 열린 국제 반도체 설계 자동화 학회(이하 DAC)에서 공학 부문 최고 발표상을 수상했다.

DAC는 국제 반도체 설계 분야의 대표 학회이며, 특히 전자 설계 자동화와 반도체 설계자산 기술 관련 세계적인 반도체 설계 기술을 선보이는 학회다. DAC에는 인텔, 엔비디아, AMD, 구글, 마이크로소프트, 삼성전자, TSMC 등 세계적인 반도체 설계 기업이 참가하며, 하버드대, MIT, 스탠퍼드대 등 세계 최고의 대학도 많이 참가한다.

세계적인 반도체 기술 사이에서 김 교수팀이 거대 언어 모델을 위한 AI 반도체 기술로 유일하게 수상한 것은 매우 의미가 크다. 이번 수상으로 거대 언어 모델의 추론에 필요한 막대한 비용을 획기적으로 절감할 수 있는 AI 반도체 솔루션으로 세계 무대에서 인정받은 것이다.

김주영 교수는 “미래 거대 AI 연산을 위한 새로운 프로세서 LPU로 글로벌 시장을 개척하고, 빅테크 기업의 기술력보다 우위를 선점하겠다”고 했다.

구본혁 기자

nbgkoo@heraldcorp.com

Copyright © 헤럴드경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?