엔비디아, 차세대 AI 칩 H200 공개… “출력 속도 H100의 2배”

현화영 2023. 11. 14. 10:03
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

미국 기업 엔비디아가 최신 AI(인공지능) 칩을 선보였다.

엔비디아 측은 "메타의 LLM '라마2'를 대상으로 테스트해 본 결과 H200가 기존의 H100에 비해 처리 속도가 2배가량 빠른 것으로 확인됐다"고 설명했다.

아울러 이 칩은 H200 GPU와 암(Arm) 기반 프로세서를 결합한 'GH200'이라는 칩과 엔비디아의 컴퓨팅 플랫폼인 HGX의 서버 구성에 사용될 수 있는 것으로 전해졌다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AMD사의 MI300X 칩과 경쟁 예상

미국 기업 엔비디아가 최신 AI(인공지능) 칩을 선보였다. 엔비디아는 AI 반도체 분야 선두주자로 꼽힌다.

엔비디아가 지난 13일(현지시간) 공개한 차세대 AI 반도체 H200. 엔비디아 제공
 
엔비디아는 지난 13일(현지시간) 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 공개했다.

H200은 챗GPT 개발사 오픈AI의 최신 LLM인 GPT-4 훈련에 적용되는 등 전 세계 기업들이 확보하기 위해 경쟁을 벌이는 H100의 업그레이드 버전이다.

H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3’가 탑재됐다.

고대역폭 메모리인 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 제품이다. 이로 인해 AI 모델을 사용한 텍스트, 이미지 등의 생성 능력과 추론 능력이 향상됐다.

엔비디아 측은 “메타의 LLM ‘라마2’를 대상으로 테스트해 본 결과 H200가 기존의 H100에 비해 처리 속도가 2배가량 빠른 것으로 확인됐다”고 설명했다. H200은 H100과 호환된다. H100을 확보한 기업들은 새 제품을 사용하기 위해 서버 시스템이나 소프트웨어를 바꾸지 않아도 된다.

아울러 이 칩은 H200 GPU와 암(Arm) 기반 프로세서를 결합한 'GH200'이라는 칩과 엔비디아의 컴퓨팅 플랫폼인 HGX의 서버 구성에 사용될 수 있는 것으로 전해졌다.

엔비디아는 H200의 가격을 공개하진 않았다. 현재 H100 칩 1개당 가격은 2만5000∼4만 달러로 추정된다. LLM을 구동하는 데에는 수천개의 칩이 필요하다. 

H200은 내년 2분기 본격적인 출시가 예상된다. 이에 따라 출시를 앞둔 미 반도체 기업 AMD의 MI300X 칩과 경쟁이 예상된다. AMD는 지난 6월 MI300X 칩을 발표, 연말 본격 출시에 들어간다고 밝혔다. MI300X 칩은 엔비디아 H100 대비 2.4배 메모리 밀도와 1.6배 이상의 대역폭(bandwidth)을 제공하는 것으로 알려졌다.

H100과 H200은 모두 엔비디아의 가속 컴퓨팅 플랫폼 호퍼 아키텍처에 기반한 제품이다. 엔비디아는 지난달 “새로운 GPU 아키텍처 개발 속도를 높이고 제품 출시 주기를 기존 2년에서 1년으로 단축할 계획”이라고 밝혔다.

이에 따라 내년에 호퍼의 후속으로 블렉웰이 등장, 블렉웰 아키텍처를 기반으로 한 신제품 B100칩이 나올 것으로 전망된다. 오는 2025년에는 ‘X’로 지정한 새로운 아키텍처가 뒤를 이을 예정이다.

현화영 기자 hhy@segye.com

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?