엔비디아 ‘슈퍼 AI칩’ 내놨다… “처리속도 2배” 혁신의 끝판왕

황혜진 기자 2023. 11. 14. 11:45
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI)용 반도체 시장의 선두 주자인 엔비디아가 성능을 혁신적으로 끌어올린 차세대 AI 반도체를 공개했다.

업계에서는 세계 최초로 고대역폭 메모리(HBM3e)가 탑재된 제품 출시로 메모리 반도체 수요 증가도 가져올 것으로 전망했다.

국내 반도체 업계는 AI 성능이 고도화할수록 높은 성능을 발휘하는 칩이 계속 개발되고 있으며, 이에 맞춰 메모리 반도체 성능이 개선되는 것은 물론 수요도 늘어날 것으로 기대하고 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

H100 업그레이드 ‘H200’ 출시
거대 언어 모델에 최적화 설계
이미지 생성·추론 능력도 향상

인공지능(AI)용 반도체 시장의 선두 주자인 엔비디아가 성능을 혁신적으로 끌어올린 차세대 AI 반도체를 공개했다. 업계에서는 세계 최초로 고대역폭 메모리(HBM3e)가 탑재된 제품 출시로 메모리 반도체 수요 증가도 가져올 것으로 전망했다.

엔비디아는 13일(현지시간) 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) ‘H200’(사진)을 공개했다. H200은 오픈AI의 챗GPT-4를 훈련하는 데 사용된 H100의 업그레이드 버전이다.

H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3e’가 탑재됐다. 고대역폭 메모리를 뜻하는 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 제품이다. 엔비디아는 “초당 4.8테라바이트(TB)의 속도로 141GB의 메모리를 제공한다. 이는 이전 제품인 A100에 비해 용량은 거의 두 배, 대역폭은 2.4배 더 커졌다”고 설명했다. 그러면서 H200이 기존의 H100에 비해 처리 속도가 두 배가량 빠른 것으로 확인됐다고 밝혔다. 또 텍스트, 이미지 등의 생성 능력과 추론 능력도 향상됐다고 덧붙였다.

H200은 내년 2분기 본격적으로 출시될 예정이다. 이에 따라 출시를 앞둔 미 반도체 기업 AMD의 MI300X 칩과 경쟁이 예상된다. H200의 가격은 1개당 가격이 2만5000∼4만 달러(약 3300만∼5280만 원)로 추정되는 H100보다는 비쌀 것으로 관측된다.

국내 반도체 업계는 AI 성능이 고도화할수록 높은 성능을 발휘하는 칩이 계속 개발되고 있으며, 이에 맞춰 메모리 반도체 성능이 개선되는 것은 물론 수요도 늘어날 것으로 기대하고 있다. 안기현 한국반도체산업협회 전무는 “AI 반도체 성능이 개선되면 메모리 반도체의 성능도 높아져야 하므로 우리에게는 좋은 기회가 될 것”이라고 분석했다.

황혜진·이승주 기자

Copyright © 문화일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?