'인텔·AMD 따돌리자' 엔비디아, 차세대 AI 반도체 'GH200' 공개

박종화 2023. 8. 9. 09:08
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

'인공지능(AI) 반도체 시장의 절대 강자'인 엔비디아가 차세대 반도체를 공개했다.

8일(현지시간) CNBC 등에 따르면 엔비디아는 이날 차세대 AI 반도체인 'GH200'을 공개했다.

GH200은 엔비디아의 최첨단 AI 반도체인 H100과 같은 사양의 그래픽처리장치(GPU)와 141기가바이트(GB) 규모 HBM3e 메모리 반도체, ARM의 72코어 중앙처리장치(CPU)를 결합해 개발됐다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

HBM3e 기술 적용해 H100보다 메모리 용량 늘려
젠슨 황 "LLM 미친 듯 추론할 수 있어…비용 크게 줄 것"

[이데일리 박종화 기자] ‘인공지능(AI) 반도체 시장의 절대 강자’인 엔비디아가 차세대 반도체를 공개했다. AI 반도체 시장에서 AMD, 인텔 등의 추격이 거센 상황에서 격차를 벌리기 위한 승부수로 해석된다.

(사진=AFP)

8일(현지시간) CNBC 등에 따르면 엔비디아는 이날 차세대 AI 반도체인 ‘GH200’을 공개했다. GH200은 엔비디아의 최첨단 AI 반도체인 H100과 같은 사양의 그래픽처리장치(GPU)와 141기가바이트(GB) 규모 HBM3e 메모리 반도체, ARM의 72코어 중앙처리장치(CPU)를 결합해 개발됐다. 이 가운데 메모리반도체에는 여러 개의 D램을 수직으로 쌓아 데이터 처리 속도를 초당 5테라바이트까지 높이는 HBM3e 기술이 적용됐다. 덕분에 80GB 규모인 H100보다 메모리 용량을 늘릴 수 있었다. GH200은 내년 2분기부터 생산될 예정으로 구체적인 가격은 공개되지 않았다.

GH200은 AI 반도체 시장을 정면 겨냥하고 있다. 생성형 AI 산업이 급성장하는 상황에서 AI를 학습·구현하기 위한 AI 반도체 시장도 함께 커지고 있기 때문이다. 젠슨 황 엔비디아 최고경영자(CEO)는 “AI 대형언어모델(LLM) 대부분을 GH200로 돌리면 미친 듯이 추론할 수 있다”며 “LLM의 추론 비용이 크게 줄어들 것”이라고 말했다.

현재 AI 반도체 시장에서 엔비디아의 점유율은 80%에 이른다. 특히 A100이나 H100 등은 AI 반도체 시장에서 없어서 못 파는 상황이다. 앞서 엔비디아는 이 같은 위치를 바탕으로 올 2분기(5~7월) 매출이 110억달러(약 14조5000억원)으로 지난해 같은 기간보다 64% 늘어날 것이란 자체 전망을 발표한 바 있다.

승승장구하는 엔비디아에 후발주자들도 도전장을 내밀고 있다. AMD는 지난 6월 공개한 최신 AI 반도체 MI300을 앞세워 시장을 공략하고 있다. 인텔 역시 지난 5월 AI 학습용 중앙처리장치(CPU)인 가우디2를 공개하며 엔비디아의 아성에 도전하고 있다.

엔비디아가 성형 AI 개발자를 위한 클라우드 서비스인 ‘AI 워크벤치’를 올가을 출시하겠다고 이날 예고한 것도 후발주자를 견제하기 위한 것으로 해석된다. AI 워크벤치는 클라우드 등에 미리 프로젝트 예시 등을 구축해 누구나 쉽게 생성형 AI를 개발할 수 있도록 하는 플랫폼이다.

박종화 (bell@edaily.co.kr)

Copyright © 이데일리. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?