엔비디아, 출력 속도 2배 높인 AI 칩 'H200' 공개

민혜정 2023. 11. 14. 13:56
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

미국 반도체 기업 엔비디아가 출력속도를 전작보다 2배 높인 인공지능(AI) 칩을 선보였다.

엔비디아는 13일(현지시간) 그래픽처리장치(GPU) HGX H200을 공개했다.

엔비디아는 H200을 메타의 LLM인 라마2에 활용한 결과, 전작인 H100보다 2배 빠른 출력을 낸다고 강조했다.

이안 벅 엔비디아 하이퍼스케일 부사장은 "빠른 GPU를 통해 방대한 양의 데이터를 처리해야 한다"며 "H200으로 중요한 과제들을 해결할 수 있을 것"이라고 강조했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

4세대 고대역메모리 HBM3 적용···내년 2분기 정식 출시

[아이뉴스24 민혜정 기자] 미국 반도체 기업 엔비디아가 출력속도를 전작보다 2배 높인 인공지능(AI) 칩을 선보였다.

엔비디아는 13일(현지시간) 그래픽처리장치(GPU) HGX H200을 공개했다. H200의 정식 출시 시기는 내년 2분기다.

H200은 챗GPT 개발사 오픈AI의 최신 대규모언어모델인(LLM)인 GPT-4 훈련에 적용된다. 엔비디아는 H200을 메타의 LLM인 라마2에 활용한 결과, 전작인 H100보다 2배 빠른 출력을 낸다고 강조했다.

엔비디아 H200 칩. [사진=엔비디아 ]

H200에는 141기가바이트(GB)의 4세대 고대역메모리(HBM) 'HBM3'가 들어갔다. HBM은 생성형 인공지능(AI) 처리 속도를 높이는 데 유용하다. 이안 벅 엔비디아 하이퍼스케일 부사장은 "빠른 GPU를 통해 방대한 양의 데이터를 처리해야 한다"며 "H200으로 중요한 과제들을 해결할 수 있을 것"이라고 강조했다.

/민혜정 기자(hye555@inews24.com)

Copyright © 아이뉴스24. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?