엔비디아, 5세대 HBM 첫 탑재 'H200' 공개
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
엔비디아가 신형 인공지능(AI) 특화 반도체인 'H200'을 공개했다.
신제품은 5세대 고대역폭메모리(HBM3E)를 첫 탑재했다.
엔비디아 H200은 AMD 최신 AI반도체 MI300X와 경쟁할 것으로 예상된다.
AMD는 엔비디아 H100 대비 메모리 트랜지스터 밀도는 2.4배, 밴드위스(대역폭)는 1.6배 이상 늘린 MI300X를 연말 출시할 예정이다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
엔비디아가 신형 인공지능(AI) 특화 반도체인 'H200'을 공개했다.
신제품은 5세대 고대역폭메모리(HBM3E)를 첫 탑재했다. HBM3E를 통해 초당 4.8테라바이트(TB) 속도로 141기가바이트(GB) 메모리를 제공한다.
초당 3.35TB 속도인 H100 대비 출력 속도가 2배 가까이 빨라졌으며 용량과 대역폭(밴드위스)도 2배 이상 증가했다고 엔비디아는 설명했다. 1750억개 이상 파라미터가 포함된 차세대 거대언어모델(LLM) 기반 AI 훈련·추론 과정에서 최고 성능을 구현한다.
고대역폭메모리(HBM)는 여러 개의 D램을 수직으로 쌓아 데이터 처리 속도를 향상한 최선단 메모리 반도체다. 텍스트·이미지 생성을 위해 훈련된 LLM 성능 강화에도 도움이 된다. SK하이닉스·삼성전자 등이 엔비디아에 HBM을 공급하는 것으로 알려졌다.
H200은 H100과 호환이 가능, 이미 H100을 사용 중인 기업들은 기존 서버 시스템이나 소프트웨어를 바꿀 필요가 없다는 것도 강점이다. H200은 H100과 동일하게 엔비디아의 가속 컴퓨팅 플랫폼 호퍼 아키텍처를 기반으로 개발됐다.
이안 벅 엔비디아 부사장은 “생성형 AI와 고성능 컴퓨팅(HPC) 애플리케이션으로 인텔리전스 생성을 위해서는 대규모의 고속 GPU 메모리로 방대한 양의 데이터를 빠르고 효율적으로 처리해야 한다”고 말했다. 메타의 LLM 라마2를 엔비디아 H200을 활용해 훈련한 결과, 추론 성능이 두 배 정도 강화된 것으로 나타났다.
엔비디아 H200은 AMD 최신 AI반도체 MI300X와 경쟁할 것으로 예상된다. AMD는 엔비디아 H100 대비 메모리 트랜지스터 밀도는 2.4배, 밴드위스(대역폭)는 1.6배 이상 늘린 MI300X를 연말 출시할 예정이다.
박종진 기자 truth@etnews.com
Copyright © 전자신문. 무단전재 및 재배포 금지.
- 역대 최다 유니콘, 절반이 적자 허덕
- [지역 소멸, 디지털 혁신이 답]지역 현안 놓치지 않게…지자체가 디지털 전략 수립해야
- 獨 콘티넨탈, 수천명 구조조정…“미래차 수익성 확보 더뎌 결단”
- 한컴, 3분기 누적 영업익 293억···클라우드 매출 비중 첫 10%대 돌파
- 2010년 악몽 재현?…화산 폭발 임박한 아이슬란드 '비상사태'
- “바닥까지 보여”…알래스카 호수, 유리처럼 얼었다
- “세액공제 직접환급제 도입해 이차전지 투자 활성화해야”
- [SW융합클러스터 우수기업]〈2〉강원, 대구, 전북, 제주
- 11개 교육청, 연합형 에듀테크 플랫폼 구축 내년 착수
- 조우석 국토지리정보원장 “국가기본도 개념 '공간 정보'로 개정”