챗GPT 효율 높일 'AI 반도체' 개발…국제학회서 '최고 발표상'
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
오픈AI의 생성형 인공지능(AI) '챗GPT'에 기존 사용되던 그래픽 처리장치(GPU)보다 가격 효율이 2.4배 높은 AI 반도체가 개발됐다.
KAIST는 김주영 전기 및 전자공학부 교수 연구팀이 챗GPT에 핵심적으로 사용되는 거대 언어 모델(LLM)의 추론 연산을 효율적으로 가속할 수 있는 AI 반도체를 개발, 지난달 12일 미국 샌프란시스코에서 진행된 국제 반도체 설계 자동화 학회(DAC)에서 공학 부문 최고 발표상을 수상했다고 4일 밝혔다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
오픈AI의 생성형 인공지능(AI) '챗GPT'에 기존 사용되던 그래픽 처리장치(GPU)보다 가격 효율이 2.4배 높은 AI 반도체가 개발됐다. 연구팀은 성과를 인정받아 국제 반도체 설계 자동화 학회(DAC)에서 '공학 부문 최고 발표상'을 수상했다.
KAIST는 김주영 전기 및 전자공학부 교수 연구팀이 챗GPT에 핵심적으로 사용되는 거대 언어 모델(LLM)의 추론 연산을 효율적으로 가속할 수 있는 AI 반도체를 개발, 지난달 12일 미국 샌프란시스코에서 진행된 국제 반도체 설계 자동화 학회(DAC)에서 공학 부문 최고 발표상을 수상했다고 4일 밝혔다.
연구팀이 개발한 AI 반도체 'LPU'는 LLM의 추론 연산 과정을 가속해 효율성을 높였다. 메모리 대역폭 사용을 극대화해 추론에 필요한 모든 연산을 고속으로 수행할 수 있다. 또 자체 네트워킹을 내장해 다른 가속기로도 쉽게 확장할 수도 있다.
생성형 AI에 사용되는 기존 고성능 GPU인 엔비디아 A100 기반 슈퍼컴퓨터보다 성능은 최대 50%, 가격 대비 성능은 2.4배 가량 높였다. 연구팀은 새로 개발된 LPU가 생성형 AI 시장에서 현재 사용되고 있는 고성능 GPU를 대체할 수 있을 것으로 전망한다.
이번 연구 결과는 LLM의 추론에 필요한 막대한 비용을 획기적으로 절감했다는 성과를 인정받아 국제 반도체 설계 분야의 대표 학회인 DAC에서 7월 12일 공학 부문 최고 발표상을 받았다. LLM을 위한 AI 반도체 기술로 수상한 팀은 김 교수 연구팀이 유일하다.
김 교수는 "미래 거대 인공지능 연산을 위한 새로운 프로세서 ‘LPU’로 글로벌 시장을 개척하고, 빅테크 기업들의 기술력보다 우위를 선점하겠다"라고 포부를 밝혔다.
[박건희 기자 wissen@donga.com]
Copyright © 동아사이언스. 무단전재 및 재배포 금지.