KAIST, 초거대 AI 모델 추론 연산 성능 2.4배 높이는 반도체 개발
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
KAIST(총장 이광형)는 전기및전자공학부 김주영 교수 연구팀이 챗GPT 같은 거대 언어 모델의 추론 연산을 효율적으로 가속하는 AI 반도체를 개발했다고 4일 밝혔다.
KAIST 김주영 교수는 "거대 언어 모델의 추론에 필요한 막대한 비용을 획기적으로 절감할 수 있는 AI 반도체 솔루션으로 세계 무대에서 인정받은 것"이라며 "미래 거대 인공지능 연산을 위한 새로운 프로세서 LPU로 글로벌 시장을 개척하고, 빅테크 기업들의 기술력보다 우위를 선점하겠다"라고 밝혔다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
(지디넷코리아=한세희 과학전문기자)KAIST(총장 이광형)는 전기및전자공학부 김주영 교수 연구팀이 챗GPT 같은 거대 언어 모델의 추론 연산을 효율적으로 가속하는 AI 반도체를 개발했다고 4일 밝혔다.
연구팀이 개발한 AI 반도체 'LPU(Latency Processing Unit)'는 메모리 대역폭 사용을 극대화하고 추론에 필요한 모든 연산을 고속으로 수행 가능한 연산 엔진을 갖춘 AI 반도체다. 자체 네트워킹을 내장해 여러 개 가속기로 쉽게 확장할 수 있다.
이 LPU 기반 가속 어플라이언스 서버는 거대 AI 모델 학습에 많이 쓰이는 고성능 GPU인 엔비디아 A100 기반 슈퍼컴퓨터보다 성능은 최대 50%, 가격 대비 성능은 2.4배가량 높다고 연구진은 밝혔다. 생성형 AI 서비스 수요가 증가하고 있는 데이터센터에서 고성능 GPU를 대체할 수 있으리란 기대다.
이 연구는 김주영 교수가 창업한 하이퍼엑셀에서 수행했다. 최근 미국 샌프란시스코에서 열린 국제 반도체 설계 자동화 학회(DAC, Design Automation Conference)에서 공학 부문 최고 발표상(Engineering Best Presentation Award)을 수상했다.
KAIST 김주영 교수는 "거대 언어 모델의 추론에 필요한 막대한 비용을 획기적으로 절감할 수 있는 AI 반도체 솔루션으로 세계 무대에서 인정받은 것"이라며 "미래 거대 인공지능 연산을 위한 새로운 프로세서 LPU로 글로벌 시장을 개척하고, 빅테크 기업들의 기술력보다 우위를 선점하겠다"라고 밝혔다.
한세희 과학전문기자(hahn@zdnet.co.kr)
Copyright © 지디넷코리아. 무단전재 및 재배포 금지.
- 美, AI칩 中 수출규제 확대 검토…엔비디아·AMD 진땀
- 삼성·SK도 '챗GPT'에 주목...AI 반도체 개발 집중
- "로봇SW 기업 첫 상장 기염…실내 자율주행 로봇에 숨결을"
- 한·중 배터리 전쟁…차세대 배터리가 승부 가른다
- "출석 증인만 108명"...과방위 국정감사 불꽃 튄다
- [르포] BMW 팬에겐 '꿈의 장소'…3600개 태양광 둘러싼 '벨트(Welt)'
- 인텔, 美정부 지원에 50억弗 투자제안까지...IPO 성공여부 주목
- [현장] AWS, 아마존베드록 서울 리전에 설치…"AI 개발 더 빠르고 저렴하게"
- "27만 LG인에 'AI 비서' 제공···글로벌 수준 AI 확보 뿌듯"
- "취업·이직 어떻게 하지"...올 가을 놓치면 후회 '잡페어' 어디?