"거대 언어 모델 최적화"…美엔비디아, 차세대 AI반도체 'H200' 공개

권해영 2023. 11. 14. 08:51
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 반도체 시장을 선도하는 미국 엔비디아가 최신 AI 반도체를 공개했다.

엔비디아는 13일(현지시간) 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 발표했다.

아울러 이 반도체는 H200 GPU와 암(Arm) 기반 프로세서를 결합한 GH200이라는 칩과 엔비디아 컴퓨팅 플랫폼인 HGX의 서버 구성에도 쓰일 수 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

H100의 업그레이드 버전…출력속도 2배

인공지능(AI) 반도체 시장을 선도하는 미국 엔비디아가 최신 AI 반도체를 공개했다.

엔비디아는 13일(현지시간) 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 발표했다.

H200은 챗GPT 개발사인 오픈AI의 최신 LLM인 GPT-4 훈련에 적용되는 H100의 업그레이드 버전이다.

H100 가격은 1개당 2만5000달러~4만달러로 추정된다. LLM을 구동하기 위해서는 수천 개의 칩이 필요하다. H100의 높은 가격에도 전 세계 기업들은 이 반도체를 확보하기 위한 쟁탈전을 벌이고 있다.

이번에 발표된 H200의 가격은 알려지지 않았다.

H200에는 141기가바이트(GB)의 차세대 메모리 HBM3가 탑재됐다. 고대역폭 메모리를 뜻하는 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 제품이다. HBM3은 HBM의 4세대 제품으로, 반도체가 텍스트와 이미지 등을 생성하기 위해 훈련된 LLM이 추론하는 데 쓰인다.

엔비디아는 메타의 LLM인 라마2에 H200을 사용한 근거를 기반으로, H200 출력이 H100보다 2배 빠르다고 설명했다. 또 H200은 H100과 호환돼 H100을 확보한 AI 기업들이 새로운 버전을 사용하기 위해 서버 시스템이나 소프트웨어를 바꿀 필요가 없다.

아울러 이 반도체는 H200 GPU와 암(Arm) 기반 프로세서를 결합한 GH200이라는 칩과 엔비디아 컴퓨팅 플랫폼인 HGX의 서버 구성에도 쓰일 수 있다.

H200은 내년 2분기 본격 출시가 예상된다. 이에 따라 조만간 출시될 미 반도체 기업 AMD의 MI300X 반도체와도 경쟁이 예상된다. MI300X 반도체는 엔비디아 H100 대비 메모리 밀도가 2.4배, 대역폭이 1.6배 수준이다.

권해영 기자 roguehy@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?