엔비디아, 품귀 빚은 ‘H100’보다 센 AI 반도체 내놨다

실리콘밸리/오로라 특파원 2023. 11. 15. 03:02
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

신형 ‘H200’… 출력속도 2배 빨라
가격은 1개당 수만 달러 달할 듯
미국 엔비디아가 13일(현지 시각) 공개한 새 GPU(그래픽처리장치) 'H200'. /엔비디아

글로벌 인공지능(AI) 반도체 시장을 장악하고 있는 미국 엔비디아가 신형 AI 반도체 ‘H200’을 공개했다. 현재 AI 반도체 시장에서 품귀 현상을 빚고 있는 ‘H100′의 업그레이드 버전이다. 신제품 공개로 엔비디아 주가는 이날 장중 1.5% 가깝게 상승했다.

엔비디아에 따르면 H200은 전작인 H100보다 출력 속도가 2배 가깝게 빨라졌다. 용량과 대역폭도 2배 이상 증가했다. 실시간으로 대규모 데이터 처리가 필요한 거대 언어 모델(LLM) 기반의 AI 훈련 및 추론 과정에 최적화된 것이다. 현재 생성형 AI를 훈련하고 있는 업체들은 엔비디아 H100을 비롯한 수천 개의 관련 반도체 제품을 사용하고 있다. H200을 쓸 경우 기존보다 필요한 반도체 수량이 크게 줄어드는 장점이 있다. 엔비디아는 “H100을 쓰고 있는업체들은 서버 시스템이나 소프트웨어 변경 없이 H200을 바로 사용할 수 있다”고 했다.

H200에는 ‘HBM3E’라는 차세대 메모리칩이 탑재됐다. HBM(고대역폭 메모리)은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 올린 고성능 제품으로, HBM3E는 이 중에서도 최첨단인 5세대 제품이다. 반도체 업계에선 이미 엔비디아에 HBM을 공급해왔던 SK하이닉스가 H200에 필요한 HBM3E 물량을 공급할 가능성이 큰 것으로 보고 있다.

엔비디아는 H200의 가격을 공개하지 않았지만, 개당 수만 달러에 이를 것이라는 분석이 나온다. 현재 H100의 가격대가 2만5000~4만달러 수준이기 때문이다. 다만 경쟁사인 AMD가 올해 연말 출시하는 AI 반도체 신제품 ‘MI300X’가 시장에서 호응을 얻을 경우 가격대가 예상보다 낮아질 수 있다는 전망도 나온다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?