'베라 루빈을 선점하라'…GTC 2026서 삼성 vs SK의 HBM 신경전

윤영숙 기자 2026. 3. 18. 01:05
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

삼성전자 'HBM4E' 공개하며 기술력 우위 강조

SK하이닉스, 경영진 직접 현장 찾아 세일즈

(서울=연합인포맥스) 윤영숙 기자 = 글로벌 AI 인프라 주도권을 둘러싼 삼성전자[005930]와 SK하이닉스[000660]의 경쟁이 미국 새너제이에서 열린 '엔비디아 GTC 2026'에서 뚜렷하게 드러났다.

17일 업계에 따르면 양사는 차세대 고대역폭 메모리(HBM) 기술을 전면에 내세우며 엔비디아와의 협력 관계, AI 메모리 경쟁력을 동시에 부각했다. 특히 엔비디아의 차세대 인공지능(AI) 플랫폼인 '베라 루빈(Vera Rubin)' 아키텍처를 둘러싼 메모리 공급 경쟁이 주요 관심사로 떠올랐다.

'베라 루빈'은 엔비디아가 개발 중인 차세대 AI 플랫폼으로, 그래픽처리장치(GPU)와 중앙처리장치(CPU), HBM4 등 초고속 메모리와 스토리지를 결합해 AI 데이터센터 성능을 높이는 차세대 컴퓨팅 시스템이다.

'루빈 GPU'와 '베라 CPU'가 합쳐진 것으로 루빈 GPU에 HBM4가 장착된다.

AI 데이터센터 성능을 좌우하는 핵심 부품으로 HBM의 중요성이 커지면서 두 회사는 이번 행사에서 차세대 HBM4 기술을 중심으로 AI 메모리 전략을 공개했다. 업계에서는 같은 행사에서 양사가 각각 HBM4 기술 우위를 강조하면서 사실상 AI 메모리 주도권 경쟁을 벌였다는 평가가 나왔다.

◇ 삼성전자 7세대인 HBM4E 첫 공개…그록3 LPU 칩 제조

먼저 삼성전자는 7세대 제품인 HBM4E 제품과 관련 기술을 공개하며 기술 리더십을 강조했다. 삼성전자는 이번 전시에서 HBM4 양산 과정에서 확보한 1c(10나노급 6세대) D램 공정 기술과 파운드리 4나노 기반 설계 역량을 결합한 HBM4E 실물 칩과 코어 다이 웨이퍼를 처음 공개했다.

삼성전자는 앞서 주요 고객, 사실상 엔비디아에 6세대 제품인 HBM4에 대한 양산 출하를 가장 먼저 시작해 업계의 주목을 받은 바 있다.

이번에 공개된 HBM4E는 핀당 최대 16Gbps 속도와 최대 4TB/s(초당 테라바이트) 수준의 대역폭을 지원하는 차세대 AI 메모리로, 메모리 설계와 파운드리, 패키징 기술을 결합한 통합 개발 방식이 특징이다. 특히 차세대 패키징 기술인 HCB(Hybrid Copper Bonding:하이브리드구리본딩)를 통해 기존 TCB(열압착접합) 방식보다 열 저항을 20% 이상 낮추고 16단 이상의 고적층 구조 구현 가능성을 제시하며 차세대 HBM 패키징 경쟁력도 강조했다.

이번 행사에서 처음으로 실물을 공개하며 메모리 기술력에서의 우위를 강조한 것으로 풀이됐다.

삼성전자는 행사에서 베라 루빈 플랫폼을 위한 메모리 토털 설루션도 함께 소개했다. 루빈 GPU용 HBM4와 서버용 메모리 모듈 SOCAMM2, PCIe Gen6 기반 서버용 SSD PM1763 등을 함께 전시하며 AI 시스템에 필요한 메모리와 스토리지를 모두 공급할 수 있는 역량을 강조했다.

이날 젠슨 황 엔비디아 CEO는 기조연설에서 삼성이 엔비디아를 위해 그록(Grog)3 언어처리장치(LPU) 칩을 제조하고 있다는 사실을 확인해 양사의 협력이 파운드리 분야에서도 이어지고 있음을 시사했다. 그록3 LPU도 '베라 루빈'에 통합된다.
삼성전자 HBM4[출처: 삼성전자]

◇ SK하이닉스, 협력 성과 부각…최태원 회장 등판

반면 SK하이닉스는 'Spotlight on AI Memory(스포트라이트 온 AI 메모리)'를 주제로 HBM4와 HBM3E 등 AI 메모리 제품군을 공개하며 엔비디아와의 협력 성과를 부각했다. 전시관 입구에 마련된 '엔비디아 협업 존'에서는 SK하이닉스 메모리가 실제로 엔비디아 AI 플랫폼에 적용된 사례가 공개됐다.

GPU 기반 AI 가속기에 탑재된 메모리 구조를 모형과 실물 형태로 구현해 HBM 기반 AI 시스템 구조를 설명하는 전시가 진행됐으며, HBM4와 HBM3E 등 차세대 제품과 함께 서버용 D램 모듈, LPDDR6, GDDR7, eSSD 등 AI 시대를 겨냥한 메모리 포트폴리오도 함께 소개됐다.

또한 SK하이닉스는 엔비디아와 협력해 개발한 액체 냉각 방식 eSSD와 LPDDR5X 메모리가 적용된 AI 슈퍼컴퓨터 DGX 스파크도 전시하며 AI 데이터센터부터 온디바이스 AI까지 확장되는 메모리 기술 경쟁력을 강조했다.

이번 행사에서는 SK그룹 최고 경영진의 참석도 주목을 받았다. 최태원 SK그룹 회장은 행사 기간 글로벌 빅테크 기업들과 만나 AI 인프라 시장 변화와 협력 확대 방안을 논의했으며, 곽노정 SK하이닉스 CEO도 함께 참석해 AI 산업 동향과 메모리 기술 전략을 공유했다. 최태원 회장과 곽노정 사장은 젠슨 황 CEO의 기조 연설장에도 모습을 드러내 젠슨 황과 별도로 만나 추가 협력 가능성을 논의할 것으로 예상됐다.
SK하이닉스 HBM 구조[출처: SK하이닉스]

◇ 엔비디아 AI 아키텍처 소개…'AI 칩 매출 1조달러'

이날 엔비디아는 루빈 GPU를 중심으로 한 베라 루빈 플랫폼에 그록(Groq)3 LPU를 통합한다고 발표했다. 루빈 GPU와 LPU의 역할을 나눠 방대한 데이터를 다루는 대규모 연산은 GPU가 맡고, 속도가 매우 빠른 LPU는 AI의 답변을 처리하도록 하겠다는 구상이다.

베라 루빈 플랫폼에 들어가는 부품은 앞서 발표했을 당시의 6종에서 LPU를 포함한 7종으로 늘었으며, 엔비디아는 '루빈'의 다음 세대 GPU인 '파인만'도 소개했다.

AI 산업이 빠르게 성장하면서 HBM은 단순한 메모리를 넘어 AI 시스템 성능을 좌우하는 핵심 부품으로 자리 잡고 있다. GPU와 함께 동작하는 초고속 메모리 구조가 대규모 AI 모델 학습과 추론 속도를 결정짓기 때문이다. 실제로 글로벌 빅테크 기업들이 AI 데이터센터 투자를 확대하면서 HBM 수요도 급격히 증가하고 있다.

이 같은 흐름 속에서 엔비디아의 차세대 AI 플랫폼인 베라 루빈을 둘러싼 메모리 공급 경쟁은 더욱 치열해질 것으로 전망된다.

황 CEO는 내년까지 엔비디아의 AI 칩 매출이 최소 1조달러(약 1천500조원)에 달할 것으로 내다봤다.

업계에서는 이번 GTC가 차세대 AI 인프라 시대를 앞두고 글로벌 메모리 기업 간 경쟁 구도를 가늠할 수 있는 무대가 될 것으로 보고 있다.
젠슨 황 엔비디아 CEO가 GTC 2026에서 기조연설하는 모습[출처: 연합뉴스 자료사진]

ysyoon@yna.co.kr

<저작권자 (c) 연합인포맥스, 무단전재 및 재배포 금지, AI 학습 및 활용 금지>

Copyright © YONHAPINFOMAX