엔비디아 `AI 슈퍼칩` 공개… 젠슨 황 "이전 모델 잊어라"

전혜인 2023. 8. 9. 14:14
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

엔비디아가 차세대 고대역폭메모리(HBM)인 HBM3E를 탑재한 차세대 인공지능(AI)용 그래픽처리장치(GPU)를 공개했다.

이번 신제품에 들어가는 HBM3E은 현재 엔비디아의 최고급 AI 칩인 H100에 적용되는 HBM3를 잇는 차세대 제품으로, 이전 세대인 HBM3를 탑재해도 사용할 수 있으나 성능을 극대화하기 위해서는 HBM3E가 적합하다는 게 회사 측 설명이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

젠슨 황 엔비디아 CEO. EPA=연합뉴스

엔비디아가 차세대 고대역폭메모리(HBM)인 HBM3E를 탑재한 차세대 인공지능(AI)용 그래픽처리장치(GPU)를 공개했다.

엔비디아는 8일(현지시간) 미국 로스앤젤레스에서 열린 컴퓨터그래픽스 콘퍼런스 '시그래프 2023'에서 차세대 AI 반도체인 'GH200 그레이스호퍼 슈퍼칩'을 선보였다.

이 제품은 엔비디아 인터커넥트 기술을 사용해 ARM 기반 엔비디아 그레이스 중앙처리장치(CPU)와 호퍼 GPU 아키텍처를 결합한 것이다.

젠슨 황(사진) 엔비디아 최고경영자(CEO)는 "이전 모델 대비 훨씬 강력한 프로세서"라고 소개하며 "증가하는 AI 컴퓨팅 파워 수요를 충족하기 위해 세계 데이터 센터의 규모를 확장하도록 설계했다"고 설명했다.

특히 메모리 용량을 확대해 AI 모델의 추론용으로 설계됐으며, 더 큰 규모의 AI 모델도 하나의 시스템에 장착할 수 있는 것이 장점이라고 강조했다.

특히 해당 칩에는 초당 5TB의 속도로 정보에 접근할 수 있는 고대역폭 메모리 HBM3E가 탑재됐다.HBM은 여러 개의 D램을 수직으로 적층한 고성능 제품으로, 기존 D램보다 데이터의 처리 속도를 대폭 개선한 것이 특징이다.

이번 신제품에 들어가는 HBM3E은 현재 엔비디아의 최고급 AI 칩인 H100에 적용되는 HBM3를 잇는 차세대 제품으로, 이전 세대인 HBM3를 탑재해도 사용할 수 있으나 성능을 극대화하기 위해서는 HBM3E가 적합하다는 게 회사 측 설명이다.

GH200에 탑재될 HBM3E는 삼성전자와 SK하이닉스가 제공할 것으로 알려졌다. 삼성전자와 SK하이닉스는 엔비디아 등 늘어나는 글로벌 HBM 수요에 맞춰 HBM 생산능력(캐파)을 기존 대비 두 배 이상 늘리고 있다.

엔비디아는 GH200이 내년 2분기 생산될 예정이라고 밝혔으나, 가격은 공개하지 않았다. 이번 신제품으로 엔비디아는 AI 반도체 시장에서의 지배력을 더 강화할 수 있을 것으로 기대한다. 엔비디아는 H100과 A100 등을 앞세워 AI 반도체 시장의 80% 이상을 점유하고 있으며, AMD와 인텔 등이 시장에 진출하며 뒤를 쫓고 있다.전혜인기자 hye@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?