엔비디아, 차세대 AI 칩 공개…"H100보다 2배 빨라"
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
엔비디아가 딥러닝 및 대규모 언어모델(LLM) 분야에서 큰 역할을 하게 될 차세대 인공지능(AI) 칩을 출시했다고 CNBC 등 외신들이 13일(이하 현지시간) 보도했다.
이번에 공개된 엔비디아의 칩은 이전 H100 그래픽처리장치(GPU)의 업그레이드 버전인 H200다.
MI300X 칩은 최대 192GB의 메모리를 탑재해 초거대 AI 모델에 장착할 수 있으며, 엔비디아 H100(120GB)의 메모리는 물론 H200보다도 용량이 크다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
(지디넷코리아=이정현 미디어연구소)엔비디아가 딥러닝 및 대규모 언어모델(LLM) 분야에서 큰 역할을 하게 될 차세대 인공지능(AI) 칩을 출시했다고 CNBC 등 외신들이 13일(이하 현지시간) 보도했다.
이번에 공개된 엔비디아의 칩은 이전 H100 그래픽처리장치(GPU)의 업그레이드 버전인 H200다. H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3′가 탑재됐는데, 고대역폭 메모리인 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 제품이다.
이로 인해 AI 모델을 사용한 텍스트, 이미지 등의 생성 능력과 추론 능력이 향상됐다. 엔비디아는 "HBM3를 탑재한 H200은 초당 4.8테라바이트 속도로 141GB의 메모리를 제공한다”고 밝혔다.
엔비디아는 H200을 메타의 LLM인 라마2에 사용한 테스트를 근거로 “H100보다 2배 빠른 출력을 낸다”고 설명했다. 또 H200은 H100과 호환되기 때문에 H100을 사용 중인 AI 기업들이 새로운 버전을 사용하기 위해 서버 시스템이나 소프트웨어를 바꿀 필요가 없다고 덧붙였다.
2024년 2분기에 출시될 것으로 예상되는 H200은 향후 AMD가 개발한 MI300X GPU 칩과 경쟁하게 될 전망이다. AMD는 지난 6월 MI300X 칩을 발표하고 연말부터 본격 출시에 들어간다고 밝혔다. MI300X 칩은 최대 192GB의 메모리를 탑재해 초거대 AI 모델에 장착할 수 있으며, 엔비디아 H100(120GB)의 메모리는 물론 H200보다도 용량이 크다.
지난 10월 엔비디아는 GPU에 대한 높은 수요로 인해 GPU 아키텍처 개발 속도를 높여 제품 출시주기를 2년에서 1년으로 전환할 것이라고 투자자들에게 밝혔다. 또, 엔비디아는 2024년 블랙웰 아키텍처 기반 B100 칩을 발표할 것이라고 설명했다.
새 AI 칩을 공개한 엔비디아의 주가는 13일 뉴욕증시에서 다른 반도체주가 일제히 하락했음에도 불구하고 전 거래일보다 0.59% 상승한 486.20 달러를 기록해 최고치에 가까워졌다. 엔비디아 주가는 지난 8월 31일 493 달러까지 치솟아 사상 최고치를 기록한 바 있다.
이정현 미디어연구소(jh7253@zdnet.co.kr)
Copyright © 지디넷코리아. 무단전재 및 재배포 금지.