엔비디아, 메모리용량 3배 'AI 슈퍼칩' 개발

최진석 2023. 8. 9. 17:50
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

미국 반도체기업 엔비디아가 차세대 인공지능(AI) 칩을 공개했다.

엔비디아의 최고급 AI 칩인 H100과 같은 그래픽처리장치(GPU)와 141기가바이트의 최첨단 메모리, 72코어 ARM 기반 중앙처리장치(CPU)를 결합했다.

엔비디아는 이 칩이 세 배 더 많은 메모리 용량을 갖추고 있어 AI 모델 추론용으로 적합하기 때문에 더 큰 규모의 AI 모델도 하나의 시스템에 탑재할 수 있다고 설명했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

처리 속도, 기존 D램보다 '월등'
내년 2분기 양산…지배력 강화
생성형AI 개발 플랫폼 출시예고

미국 반도체기업 엔비디아가 차세대 인공지능(AI) 칩을 공개했다. 증가하는 AI 컴퓨팅 파워 수요를 소화하기 위해 이전 제품보다 성능을 끌어올린 것이 특징이다. 이를 통해 현재 80% 이상을 점유하고 있는 AI 칩 시장 지배력을 더 강화하겠다는 전략이다.

엔비디아는 8일(현지시간) 미국 로스앤젤레스에서 열린 ‘컴퓨터 그래픽스 콘퍼런스 시그래프’에서 차세대 AI 칩인 GH200 그레이스 호퍼 슈퍼칩을 내놨다. 엔비디아의 최고급 AI 칩인 H100과 같은 그래픽처리장치(GPU)와 141기가바이트의 최첨단 메모리, 72코어 ARM 기반 중앙처리장치(CPU)를 결합했다.

이 칩에는 초당 5테라바이트(TB) 속도로 정보에 접근할 수 있는 고대역폭 메모리 HBM3e가 적용됐다. HBM은 여러 개의 D램을 수직으로 연결해 쌓아 기존 D램보다 데이터 처리 속도를 크게 끌어올린 메모리로, HBM3e는 4세대 제품이다.

젠슨 황 엔비디아 최고경영자(CEO)는 “이 프로세서는 이전 모델보다 훨씬 더 강력하다”며 “증가하는 AI 컴퓨팅 파워 수요를 충족시키기 위해 데이터센터의 규모를 확장하도록 설계됐다”고 설명했다. 이어 “원하는 거의 모든 대규모언어모델(LLM)을 여기에 넣으면 미친 듯이 추론할 수 있을 것”이라며 “이를 통해 LLM 운용 비용을 절감할 수 있을 것”이라고 강조했다.

엔비디아는 이 칩이 세 배 더 많은 메모리 용량을 갖추고 있어 AI 모델 추론용으로 적합하기 때문에 더 큰 규모의 AI 모델도 하나의 시스템에 탑재할 수 있다고 설명했다.

칩은 내년 2분기 생산될 예정이며 가격은 공개하지 않았다.

엔비디아는 이 칩을 통해 시장 지배력을 강화한다는 전략을 세우고 있다. 엔비디아는 AI 칩 시장의 80% 이상을 점유하고 있다. AMD와 인텔 등도 점유율을 확대하기 위해 경쟁하고 있다.

엔비디아는 이와 함께 쉽게 생성형 AI를 개발할 수 있는 플랫폼인 AI 워크벤치도 조만간 출시한다고 발표했다. AI 워크벤치를 통해 GPU를 이용할 수 있으면 누구나 생성형 AI 크리에이터가 될 수 있다고 엔비디아는 설명했다.

실리콘밸리=최진석 특파원 iskra@hankyung.com

클래식과 미술의 모든 것 '아르떼'에서 확인하세요
한국경제신문과 WSJ, 모바일한경으로 보세요

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?