젠슨 황 "AI 수요 폭발…2027년까지 주문 1조 달러"
'에이전틱 AI' 확산…컴퓨팅 패러다임 전환 시작
엔비디아, Groq LPU·Kyber로 차세대 AI 인프라 공개

(뉴욕=머니투데이방송) 염현석 특파원 =인공지능(AI) 컴퓨팅 수요가 폭발적으로 늘어나면서 차세대 AI 인프라 시장 규모가 예상보다 훨씬 빠르게 확대될 것이라는 전망이 나왔다.
엔비디아의 젠슨 황 최고경영자(CEO)는 16일(현지시간) 미국 캘리포니아 산호세에서 열린 연례 개발자 행사 GTC 기조연설에서 "차세대 AI 플랫폼 '블랙웰(Blackwell)'과 '베라 루빈(Vera Rubin)' 시스템의 구매 주문 규모가 2027년까지 약 1조 달러에 이를 것으로 본다"고 밝혔다.
이는 엔비디아가 지난해 제시했던 약 5000억 달러 규모의 시장 기회 전망을 크게 웃도는 수준이다. AI 서비스 확산 속도가 예상보다 훨씬 빠르게 진행되면서 데이터센터와 AI 컴퓨팅 인프라 투자가 급증하고 있다는 의미다.
황 CEO는 특히 '에이전틱 AI(Agentic AI)'의 확산이 컴퓨팅 수요 구조를 근본적으로 바꾸고 있다고 강조했다.
에이전틱 AI는 단순히 질문에 답하는 챗봇을 넘어 여러 AI 에이전트가 서로 협력하며 작업을 수행하는 형태의 애플리케이션을 의미한다. 이런 구조에서는 AI 모델이 생성하는 토큰(token)의 양이 급격히 증가하기 때문에 이를 처리할 수 있는 대규모 추론(inference) 컴퓨팅 인프라가 필수적이다.
황 CEO는 "기업들이 더 많은 컴퓨팅 용량을 확보할 수만 있다면 더 많은 토큰을 생성할 수 있고 그만큼 매출도 증가한다"며 AI 서비스 확산이 곧 컴퓨팅 인프라 투자 확대와 직결된다고 설명했다.
엔비디아는 이러한 흐름 속에서 차세대 AI 시스템 '베라 루빈' 플랫폼을 올해 고객사에 공급할 예정이라고 밝혔다.
베라 루빈은 약 130만 개 부품으로 구성된 대규모 AI 시스템으로, 엔비디아는 이 플랫폼이 기존 세대인 블랙웰 대비 추론 처리 효율과 전력 효율을 크게 개선할 것으로 기대하고 있다. 회사는 특히 AI 추론 과정에서 '토큰당 비용을 크게 낮출 수 있다'고 강조했다.
AI 데이터센터에서 전력 소비는 가장 큰 제약 요인 중 하나로 꼽힌다. AI 모델 규모가 커지고 추론 작업이 급증하면서 데이터센터 전력 수요가 급격히 늘어나고 있기 때문이다. 엔비디아는 차세대 시스템이 이러한 문제를 해결하는 핵심 인프라가 될 것으로 보고 있다.
이날 행사에서는 새로운 AI 칩 아키텍처도 공개됐다.
황 CEO는 'Groq 3 LPU(Language Processing Unit)'를 소개하며 GPU 중심 구조를 보완하는 새로운 AI 프로세서를 제시했다. 이 칩은 GPU와 함께 작동하며 초저지연 토큰 생성을 처리하는 데 초점을 맞춘 프로세서다.
엔비디아는 Groq LPU를 대규모 랙 시스템 형태로 구성해 AI 데이터센터에 배치할 수 있도록 설계했다. 회사는 이 시스템이 AI 추론 성능과 에너지 효율을 크게 개선할 수 있을 것으로 보고 있다.
엔비디아는 더 나아가 차세대 AI 데이터센터 아키텍처 '카이버(Kyber)'도 공개했다.
카이버는 GPU를 수직으로 배치하는 새로운 랙 구조를 적용해 데이터 밀도를 높이고 시스템 지연시간을 줄이는 것이 특징이다. 해당 설계는 144개의 GPU를 하나의 컴퓨트 구조에 통합하는 방식으로 대규모 AI 연산을 더욱 효율적으로 처리하도록 설계됐다.
이 기술은 차세대 시스템 '베라 루빈 울트라(Vera Rubin Ultra)'에 적용될 예정이며 '2027년 도입'을 목표로 개발이 진행되고 있다.
염현석 머니투데이방송 MTN 기자