"거대 언어 모델 최적화"…美엔비디아, 차세대 AI반도체 'H200' 공개
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
인공지능(AI) 반도체 시장을 선도하는 미국 엔비디아가 최신 AI 반도체를 공개했다.
엔비디아는 13일(현지시간) 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 발표했다.
아울러 이 반도체는 H200 GPU와 암(Arm) 기반 프로세서를 결합한 GH200이라는 칩과 엔비디아 컴퓨팅 플랫폼인 HGX의 서버 구성에도 쓰일 수 있다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
인공지능(AI) 반도체 시장을 선도하는 미국 엔비디아가 최신 AI 반도체를 공개했다.
엔비디아는 13일(현지시간) 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 발표했다.
H200은 챗GPT 개발사인 오픈AI의 최신 LLM인 GPT-4 훈련에 적용되는 H100의 업그레이드 버전이다.
H100 가격은 1개당 2만5000달러~4만달러로 추정된다. LLM을 구동하기 위해서는 수천 개의 칩이 필요하다. H100의 높은 가격에도 전 세계 기업들은 이 반도체를 확보하기 위한 쟁탈전을 벌이고 있다.
이번에 발표된 H200의 가격은 알려지지 않았다.
H200에는 141기가바이트(GB)의 차세대 메모리 HBM3가 탑재됐다. 고대역폭 메모리를 뜻하는 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 제품이다. HBM3은 HBM의 4세대 제품으로, 반도체가 텍스트와 이미지 등을 생성하기 위해 훈련된 LLM이 추론하는 데 쓰인다.
엔비디아는 메타의 LLM인 라마2에 H200을 사용한 근거를 기반으로, H200 출력이 H100보다 2배 빠르다고 설명했다. 또 H200은 H100과 호환돼 H100을 확보한 AI 기업들이 새로운 버전을 사용하기 위해 서버 시스템이나 소프트웨어를 바꿀 필요가 없다.
아울러 이 반도체는 H200 GPU와 암(Arm) 기반 프로세서를 결합한 GH200이라는 칩과 엔비디아 컴퓨팅 플랫폼인 HGX의 서버 구성에도 쓰일 수 있다.
H200은 내년 2분기 본격 출시가 예상된다. 이에 따라 조만간 출시될 미 반도체 기업 AMD의 MI300X 반도체와도 경쟁이 예상된다. MI300X 반도체는 엔비디아 H100 대비 메모리 밀도가 2.4배, 대역폭이 1.6배 수준이다.
권해영 기자 roguehy@asiae.co.kr
Copyright © 아시아경제. 무단전재 및 재배포 금지.
- "명절에 시댁서 일하고 220만원 받은 아내, 과하지 않나요?" - 아시아경제
- 3년째 여자만 사는 집 훔쳐보는 남성…"10번 이상 신고해도 소용없어" - 아시아경제
- "엄마와 친구들이 못생겼다고 괴롭혀" 2억 모아 25번 성형한 日여성 - 아시아경제
- "올해 가을 없다, 폭염 끝나면 한파"…무서운 전망 경고한 교수[뉴스 속 숫자] - 아시아경제
- "대혐오 시대, 거만해 보이면 역풍 맞아"…곽튜브 팬 1년전 예언 - 아시아경제
- "월 1000만원 드려야 할 듯" 아무나 못한다는 울릉도 쿠팡맨 월수입은 - 아시아경제
- "생김새도 냄새도 다 역겨워"…한국 다녀간 칸예 아내, 때아닌 고통호소 - 아시아경제
- "아무도 안죽었잖아"…초유의 성폭행사건에 프랑스 시장이 한 말 - 아시아경제
- "추석 연휴 전화 92번 돌렸는데"…세 차례 심정지 30대 여성 결국 - 아시아경제
- 금발 미녀가 추는 '삐끼삐끼' 화제…"美 치어리딩과는 비교돼" - 아시아경제