'HBM 전쟁' 총성은 울렸다…삼성, 판 뒤집기 vs SK, 1등 굳히기

황정수 2024. 5. 6. 18:36
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

DEEP INSIGHT
AI칩 '10년 패권' 좌우할 차세대 HBM
공든탑 HBM '칩워 2라운드'
SK-AMD, 10년 전 그래픽카드용 개발
비싸고 성능 안나와 AMD도 탑재 포기
엔비디아 'AI 가속기' 수요 폭발에
비주류로 잊혀졌다가 화려한 부활
명맥 유지한 SK, HBM3 점유율 장악
삼성, 2019년 팀 해체 '뼈아픈 실책'
올해 '반도체 왕좌의 게임' 분수령
SK 'HBM3E 8단' 엔비디아에 3월 납품
8단서 밀린 삼성, 12단 최초 개발 '반격'
엔비디아는 기술경쟁 부추겨 '어부지리'
사진=연합뉴스


경계현 삼성전자 사장 "초기 시장에선 승리하지 못했지만 2라운드는 승리해야 한다."

“초기 시장에선 이기지 못했지만, 2라운드에선 승리해야 한다.”(경계현 삼성전자 사장)

“경쟁력은 한순간에 확보할 수 있는 게 아니다. 하지만 자만하지 않겠다.”(곽노정 SK하이닉스 사장)

3분기부터 열리는 ‘5세대 고대역폭메모리’(HBM3E) 시장을 놓고 삼성과 SK가 전열을 가다듬고 있다. HBM3E의 ‘큰손’인 엔비디아의 올해 발주 물량(10조원 이상 추정) 수주전에서 승리하기 위해서다. 삼성과 SK가 똑같은 사양의 HBM 제품을, 똑같은 고객에게, 똑같은 시기에 납품 대결을 벌인 건 이번이 처음이다.

곽노정 SK하이닉스 사장 "경쟁력은 한순간에 확보 못한다. 자만, 방심하지 않고 만들겠다."

승부처는 D램 12개를 쌓아 만든 12단 제품. 현재 두 회사 모두 시제품을 엔비디아에 보내 속칭 ‘퀄 테스트’(quality test·품질 검증)를 받고 있다. 결과는 한두 달이면 나온다. 시장에선 두 회사 모두 엔비디아의 승인을 받을 가능성이 큰 만큼 승패는 얼마나 많은 주문을 따내느냐에 달렸다고 말한다. 물량을 많이 따낸 기업엔 ‘HBM 패권 기업’이란 타이틀이, 상대적으로 수주량이 적은 회사엔 ‘HBM 2등 기업’이란 낙인이 찍힌다는 얘기다.

 고부가가치 수주형 제품

HBM은 엔비디아의 그래픽처리장치(GPU)와 함께 인공지능(AI) 시대의 ‘슈퍼스타’로 떠오른 반도체다. 이렇게 만든다. 우선 D램 단품을 얇게 깎아 차곡차곡 쌓는다. 그다음 칩을 관통하는 구멍을 수천 개 뚫고 거기에 전도성 물질을 채운다. 이른바 ‘실리콘관통전극(TSV)’ 기술을 활용해 쌓아 올린 D램의 위아래를 전기적으로 연결해 마치 한몸처럼 움직이게 한다. 고층 아파트에 엘리베이터를 설치하는 것과 비슷한 개념이다.

이미지=한경DB


D램을 여러 개 쌓은 만큼 대역폭(한 번에 데이터를 보내는 능력)과 저장용량이 일반 D램보다 10배 이상 크다. 그래서 AI 시대 필수품이란 평가를 받는다. AI 가속기(데이터 학습·추론에 특화된 반도체 패키지)의 두뇌 역할을 하는 GPU가 쉼 없이 일할 수 있도록 옆에서 대용량 데이터를 보관했다가 빠르게 보내주는 최적의 파트너다.

첨단 공법이 필요한 제품이어서 고객 맞춤형으로 제작한다. 누구나 사다 쓰는 범용제품 중심이던 D램 산업의 틀을 ‘수주형’으로 바꾼 주인공이다.

HBM은 당초 AI와 거리가 멀었다. 2010년 게임용 그래픽카드 업체 엔비디아, AMD가 메모리 반도체 기업에 고대역폭 D램을 요청한 게 시작이다. 그래픽카드가 고화질 게임을 소화하려면 대용량 픽셀 데이터를 빠르게 처리해야 하는데, 당시 GPU를 돕는 일반 D램의 성능이 떨어졌기 때문이다.

SK는 AMD와 짝을 이뤄 공동 연구를 시작했다. 3년 뒤인 2013년 12월 SK는 첫 HBM을 공개했다. 그 제품을 2015년 6월 리사 수 AMD 최고경영자(CEO)가 세상에 데뷔시켰다. 거기까지였다. 당시 HBM 가격은 그래픽 D램(GDDR)보다 두세 배 비쌌는데, 성능은 그만큼 안 나왔다. AMD는 돈값 못하는 HBM을 그래픽카드에 넣는 걸 포기했다.

사장 위기에 내몰린 HBM을 살린 건 엔비디아였다. HBM이 대용량 데이터 처리에 적합하다는 데 주목해 서버용 제품에 적용한 것. 그렇게 2016년 출시한 AI 가속기 ‘테슬라 P100’에 HBM2를 장착했다. 하지만 그때만 해도 AI 가속기 수요는 많지 않았고, HBM은 전체 D램 매출의 5%도 안 되는 비주류 제품이었다.

 AI 붐에 기사회생한 HBM

2022년 말 나온 챗GPT 등 생성형 AI는 반도체 판도를 확 바꿨다. 빅테크들이 앞다퉈 생성 AI 개발에 뛰어들면서 AI 가속기 수요가 폭발적으로 늘었고, 이에 따라 HBM 몸값도 껑충 뛰었다. 당시 최신 HBM은 4세대인 HBM3였다. 대역폭은 초당 819GB로 1세대 HBM(128GB)의 6.4배가 됐다. 당시 HBM3를 제조할 수 있는 업체는 SK뿐이었다. SK는 지난해 HBM3 시장을 90% 이상 가져가며 사실상 독점시장으로 만들었다. HBM3는 일반 D램의 5배 이상이고 이익률은 50% 수준인 것으로 알려졌다. SK하이닉스의 지난 1분기 영업이익(2조8860억원)이 삼성전자 반도체부문(1조9100억원)을 앞설 수 있었던 이유다.

삼성은 뒤늦게 HBM3 양산에 들어갔지만, 벽은 높았다. 엔비디아와 SK가 단단하게 구축한 ‘HBM 동맹’은 아무리 흔들어도 쉽게 깨지지 않았다. 삼성은 일반 서버 등에 들어가는 HBM2 등 저가 제품으로 명맥을 이어가는 데 만족해야 했다.

 젠슨 황 “HBM3E 12단 서둘러 달라”

삼성이 HBM3E 12단 제품에 회사 역량을 집중하는 이유다. HBM3E는 대역폭을 초당 1180~1280GB까지 끌어올린 제품이다. 사실상 동일한 조건에서 SK와 승부하는 만큼 충분히 승산이 있다는 게 삼성의 생각이다. 엔비디아가 HBM 납품처를 늘리려는 움직임을 보이는 것도 삼성에 호재다.

삼성은 지난 2월 업계 최대 용량인 36GB HBM3E 12단 제품을 세계 최초로 개발했다. HBM3 8단보다 AI 학습 훈련 속도를 평균 34% 높일 수 있는 제품이다. 현재 진행 중인 엔비디아 테스트를 통과하면 3분기에는 납품이 성사될 것으로 업계는 내다보고 있다. SK 역시 이달 샘플을 보낸 뒤 3분기 12단 제품 공급에 나선다는 계획이다.

두 회사가 이 제품에 목을 매는 건 엔비디아의 차세대 AI 가속기 B200, GB200에 장착될 가능성이 크기 때문이다. 이들 제품은 현재 주력 제품인 H100 대비 성능이 최대 30배 향상된 차세대 핵심 AI 가속기다. H100과 H200에는 HBM3가 각각 4개, 6개 장착됐는데, B200에는 HBM3E 8단 8개가 들어간다. B200과 GB200의 업그레이드 버전엔 HBM3E 12단이 8개 이상 들어갈 가능성이 크다. 올해 HBM 시장 규모가 지난해(43억달러)보다 네 배 늘어난 169억달러(약 24조원)에 이를 것으로 예상되는 이유다. 2030년께는 HBM 시장 규모가 50조원까지 커질 것이란 전망도 나온다.

젠슨 황 엔비디아 CEO는 삼성과 SK의 경쟁을 부추기며 이른 납품을 주문한 것으로 알려졌다. 몇 달 뒤면 삼성이 판을 뒤집을지, SK가 1등 자리를 굳힐지가 판가름 난다.

황정수 기자 hjs@hankyung.com

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?