엔비디아, 차세대 AI칩 H200 나왔다…"속도 두 배"

뉴욕=박준식 특파원 2023. 11. 14. 00:37
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

엔비디아가 인공지능(AI) 모델을 훈련하는 데 전문적인 새 연산 처리제품 'H200'을 공개했다.

13일(현지시간) 엔비디아는 H200이 직전 AI 전문화 모델인 H100의 업그레이드 버전이라며 생성형 AI 언어모델에 사활을 건 빅테크들의 수요가 높을 거라고 예상했다.

생성형 AI 프로그램을 개발하고 훈련이 가능한 프로세스 모델을 만들려면 수천 개의 관련 제품이 쓰여야 한다.

엔비디아는 H200이 구모델 H100과 호환될 것이라고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

엔비디아가 인공지능(AI) 모델을 훈련하는 데 전문적인 새 연산 처리제품 'H200'을 공개했다.

13일(현지시간) 엔비디아는 H200이 직전 AI 전문화 모델인 H100의 업그레이드 버전이라며 생성형 AI 언어모델에 사활을 건 빅테크들의 수요가 높을 거라고 예상했다.

CNBC는 투자은행 레이몬드 제임스 추산에 따라 구모델인 H100 가격이 2만 5000~4만 달러 사이라고 전했다. 생성형 AI 프로그램을 개발하고 훈련이 가능한 프로세스 모델을 만들려면 수천 개의 관련 제품이 쓰여야 한다. 생성형 AI 모델 사업을 벌이는 대기업이 마이크로소프트 이외에 알파벳과 아마존, 메타 등 몇 안되는 이유도 바로 이런 투자금이 최소 수천억원에서 조단위까지 필요하기 때문이다. 성공할지 실패할지도 모르는 사업에 조단위 자금을 집중할 수 있는 기업은 지구상에 많지 않다.

신제품 H200은 이른바 'HBM3'라는 메모리가 탑재된 것이 차별점이다. 이 메모리를 통해 처리장치는 '추론 작업'을 수행하거나 텍스트나 이미지 또는 예측을 생성하도록 훈련된 후 대규모 모델을 만들어내 수 있다. HBM3의 저장규모는 141GB다.

엔비디아는 H200이 H100보다 거의 두 배 빠른 출력을 낼 것이라고 자신했다. 이 결과는 메타의 테스트를 기반으로 한다. H200은 내년 2분기부터 출시될 예상인데 시장에서는 AMD의 MI300X GPU와 경쟁할 것으로 보인다. AMD의 이 제품도 추론을 실행하기 위한 하드웨어 체계를 갖췄다.

엔비디아는 H200이 구모델 H100과 호환될 것이라고 밝혔다. 이는 이전 모델로 훈련하고 있는 AI 회사가 새 버전을 사용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다는 의미다.

하지만 H200의 시장성이 그리 높지 못할 거라는 우려도 나온다. 엔비디아가 새로운 아키텍처로 만든 또다른 신제품을 연이어 내놓을 가능성이 높아서다. H100과 신제품 H200은 둘 다 엔비디아의 하퍼(Hopper) 아키텍처를 기반으로 한다.

엔비디아는 곧 블랙웰(Blackwell) 아키텍처를 기반으로 하는 신제품을 내놓을 예정이다. 블랙웰 방식으로 처리장치를 설계할 경우 성능의 퀀텀 점프가 기대된다는 것이다. 엔비디아는 이와 관련해 'B100'이라는 이름의 칩을 내년에 발표할 예정이다.

뉴욕=박준식 특파원 win0479@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?