'베라 루빈을 선점하라'…GTC 2026서 삼성 vs SK의 HBM 신경전
삼성전자 'HBM4E' 공개하며 기술력 우위 강조
SK하이닉스, 경영진 직접 현장 찾아 세일즈
(서울=연합인포맥스) 윤영숙 기자 = 글로벌 AI 인프라 주도권을 둘러싼 삼성전자[005930]와 SK하이닉스[000660]의 경쟁이 미국 새너제이에서 열린 '엔비디아 GTC 2026'에서 뚜렷하게 드러났다.
17일 업계에 따르면 양사는 차세대 고대역폭 메모리(HBM) 기술을 전면에 내세우며 엔비디아와의 협력 관계, AI 메모리 경쟁력을 동시에 부각했다. 특히 엔비디아의 차세대 인공지능(AI) 플랫폼인 '베라 루빈(Vera Rubin)' 아키텍처를 둘러싼 메모리 공급 경쟁이 주요 관심사로 떠올랐다.
'베라 루빈'은 엔비디아가 개발 중인 차세대 AI 플랫폼으로, 그래픽처리장치(GPU)와 중앙처리장치(CPU), HBM4 등 초고속 메모리와 스토리지를 결합해 AI 데이터센터 성능을 높이는 차세대 컴퓨팅 시스템이다.
'루빈 GPU'와 '베라 CPU'가 합쳐진 것으로 루빈 GPU에 HBM4가 장착된다.
AI 데이터센터 성능을 좌우하는 핵심 부품으로 HBM의 중요성이 커지면서 두 회사는 이번 행사에서 차세대 HBM4 기술을 중심으로 AI 메모리 전략을 공개했다. 업계에서는 같은 행사에서 양사가 각각 HBM4 기술 우위를 강조하면서 사실상 AI 메모리 주도권 경쟁을 벌였다는 평가가 나왔다.
◇ 삼성전자 7세대인 HBM4E 첫 공개…그록3 LPU 칩 제조
먼저 삼성전자는 7세대 제품인 HBM4E 제품과 관련 기술을 공개하며 기술 리더십을 강조했다. 삼성전자는 이번 전시에서 HBM4 양산 과정에서 확보한 1c(10나노급 6세대) D램 공정 기술과 파운드리 4나노 기반 설계 역량을 결합한 HBM4E 실물 칩과 코어 다이 웨이퍼를 처음 공개했다.
삼성전자는 앞서 주요 고객, 사실상 엔비디아에 6세대 제품인 HBM4에 대한 양산 출하를 가장 먼저 시작해 업계의 주목을 받은 바 있다.
이번에 공개된 HBM4E는 핀당 최대 16Gbps 속도와 최대 4TB/s(초당 테라바이트) 수준의 대역폭을 지원하는 차세대 AI 메모리로, 메모리 설계와 파운드리, 패키징 기술을 결합한 통합 개발 방식이 특징이다. 특히 차세대 패키징 기술인 HCB(Hybrid Copper Bonding:하이브리드구리본딩)를 통해 기존 TCB(열압착접합) 방식보다 열 저항을 20% 이상 낮추고 16단 이상의 고적층 구조 구현 가능성을 제시하며 차세대 HBM 패키징 경쟁력도 강조했다.
이번 행사에서 처음으로 실물을 공개하며 메모리 기술력에서의 우위를 강조한 것으로 풀이됐다.
삼성전자는 행사에서 베라 루빈 플랫폼을 위한 메모리 토털 설루션도 함께 소개했다. 루빈 GPU용 HBM4와 서버용 메모리 모듈 SOCAMM2, PCIe Gen6 기반 서버용 SSD PM1763 등을 함께 전시하며 AI 시스템에 필요한 메모리와 스토리지를 모두 공급할 수 있는 역량을 강조했다.

◇ SK하이닉스, 협력 성과 부각…최태원 회장 등판
반면 SK하이닉스는 'Spotlight on AI Memory(스포트라이트 온 AI 메모리)'를 주제로 HBM4와 HBM3E 등 AI 메모리 제품군을 공개하며 엔비디아와의 협력 성과를 부각했다. 전시관 입구에 마련된 '엔비디아 협업 존'에서는 SK하이닉스 메모리가 실제로 엔비디아 AI 플랫폼에 적용된 사례가 공개됐다.
GPU 기반 AI 가속기에 탑재된 메모리 구조를 모형과 실물 형태로 구현해 HBM 기반 AI 시스템 구조를 설명하는 전시가 진행됐으며, HBM4와 HBM3E 등 차세대 제품과 함께 서버용 D램 모듈, LPDDR6, GDDR7, eSSD 등 AI 시대를 겨냥한 메모리 포트폴리오도 함께 소개됐다.
또한 SK하이닉스는 엔비디아와 협력해 개발한 액체 냉각 방식 eSSD와 LPDDR5X 메모리가 적용된 AI 슈퍼컴퓨터 DGX 스파크도 전시하며 AI 데이터센터부터 온디바이스 AI까지 확장되는 메모리 기술 경쟁력을 강조했다.

◇ 엔비디아 AI 아키텍처 소개…'AI 칩 매출 1조달러'
이날 엔비디아는 루빈 GPU를 중심으로 한 베라 루빈 플랫폼에 그록(Groq)3 LPU를 통합한다고 발표했다. 루빈 GPU와 LPU의 역할을 나눠 방대한 데이터를 다루는 대규모 연산은 GPU가 맡고, 속도가 매우 빠른 LPU는 AI의 답변을 처리하도록 하겠다는 구상이다.
베라 루빈 플랫폼에 들어가는 부품은 앞서 발표했을 당시의 6종에서 LPU를 포함한 7종으로 늘었으며, 엔비디아는 '루빈'의 다음 세대 GPU인 '파인만'도 소개했다.
AI 산업이 빠르게 성장하면서 HBM은 단순한 메모리를 넘어 AI 시스템 성능을 좌우하는 핵심 부품으로 자리 잡고 있다. GPU와 함께 동작하는 초고속 메모리 구조가 대규모 AI 모델 학습과 추론 속도를 결정짓기 때문이다. 실제로 글로벌 빅테크 기업들이 AI 데이터센터 투자를 확대하면서 HBM 수요도 급격히 증가하고 있다.
이 같은 흐름 속에서 엔비디아의 차세대 AI 플랫폼인 베라 루빈을 둘러싼 메모리 공급 경쟁은 더욱 치열해질 것으로 전망된다.
황 CEO는 내년까지 엔비디아의 AI 칩 매출이 최소 1조달러(약 1천500조원)에 달할 것으로 내다봤다.

ysyoon@yna.co.kr
<저작권자 (c) 연합인포맥스, 무단전재 및 재배포 금지, AI 학습 및 활용 금지>
Copyright © YONHAPINFOMAX