엔비디아, 업그레이드된 AI칩 H200 출시 발표

김정아 2023. 11. 13. 23:44
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.

엔비디아는 13일(현지시간) 새로운 AI(인공지능)칩 H200 GPU(그래픽처리장치)를 발표했다.

여러 외신에 따르면 엔비디아가 이 날 발표한 새로운 H200 텐서코어 칩은 141GB의 차세대 HBM3 메모리가 포함돼있으며 추론에 사용하거나 AI 모델에서 답변을 생성할 때 현재 H100 모델보다 최대 60%~90% 더 높은 성능을 제공한다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

현재 H100모델보다 최대 60~90% 성능 향상
내년 2분기부터 주요 클라우드업체 등에 배포
이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.
미국 실리콘밸리에 있는 엔비디아 본사. 로이터 연합뉴스

엔비디아는 13일(현지시간) 새로운 AI(인공지능)칩 H200 GPU(그래픽처리장치)를 발표했다. 

여러 외신에 따르면 엔비디아가 이 날 발표한 새로운 H200 텐서코어 칩은 141GB의 차세대 HBM3 메모리가 포함돼있으며 추론에 사용하거나 AI 모델에서 답변을 생성할 때 현재 H100 모델보다 최대 60%~90% 더 높은 성능을 제공한다.

엔비디아는 메타(META) 의 라마2 LLM(대용량언어모델)을 기반으로 한 테스트에서  H200이 H100보다 거의 두 배 빠른 출력을 생성했다고 밝혔다. 

또 H100과도 호환될 수 있어 이미 이전 모델로 훈련하고 있는 AI 회사가 새 버전을 사용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다고 덧붙였다. 

엔비디아는 H200 칩으로 구동되는 시스템이 아마존, 구글, 마이크로소프트 등 주요 클라우드 서비스 제공업체와 엔비디아의 하드웨어 파트너에게 2024년 2분기부터 이용가능해질 것이라고 밝혔다. 

이 회사의 하이퍼스케일 및 고성능 컴퓨팅 담당 부사장인 이언 버크는 “H200을 통해 업계 최고의 엔드투엔드 AI 슈퍼컴퓨팅 플랫폼이 중요한 기술 과제들을 더 빠른 속도로 해결할 수 있다”고 말했다.

엔비디아의 GPU는 AI 모델 훈련과 고객 서비스 제공에 필요한 병렬 계산용도로 판매된다. 올해초부터 대량 공급된 하이엔드 칩 H100은 GPU당 약 25,000달러~40,000달러 사이이다.  생성 인공 지능에 대한 관심이 높아져 제품 부족 현상이 발생하면서 이 제품은 기업과 정부 기관들이 확보 경쟁을 벌여왔다.  

한편 또다른 AI칩 생산업체인 AMD(AMD)가 곧 출시할 MI300X GPU 칩 역시 추론 애플리케이션 시장을 겨냥해 기존 AI칩보다 업그레이드된 성능을 표방하고 있다. 엔비디아의 H200 과 비교한 스펙은 아직 알려지지 않았다. 

엔비디아는 지난 달 투자자 프리젠테이션에서 종전 2년 단위의 AI칩 주기가 1년 주기로 더 빨라지고 있다며 2024년과 2025년에 더 향상된 고급 AI 제품을 출시할 계획이라고 밝혔다. 

김정아 객원기자 kja@hankyung.com

클래식과 미술의 모든 것 '아르떼'에서 확인하세요
한국경제·모바일한경·WSJ 구독신청하기

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?