엔비디아 유일한 공급망…SK하이닉스 '고대역폭메모리' 기대감

임동욱 기자 2023. 7. 3. 08:17
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

고대역폭메모리(HBM·High Bandwidth Memory) 수요가 올해 큰 폭으로 늘어날 것이라는 전망이 나왔다.

생성형 인공지능(AI) 열풍으로 고성능 컴퓨팅에 대한 수요가 급증하면서, HBM이 올해 반도체 시장의 성장 동력이 될 것이라는 기대감이 높아지고 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

SK하이닉스 24기가바이트(GB) HBM3 /사진제공=SK하이닉스


고대역폭메모리(HBM·High Bandwidth Memory) 수요가 올해 큰 폭으로 늘어날 것이라는 전망이 나왔다. 생성형 인공지능(AI) 열풍으로 고성능 컴퓨팅에 대한 수요가 급증하면서, HBM이 올해 반도체 시장의 성장 동력이 될 것이라는 기대감이 높아지고 있다.

시장조사업체 트렌드포스에 따르면, 올해 전 세계 HBM수요는 2억9000만 기가바이트(GB)로 전년 대비 60% 가량 증가할 전망이다. 내년에도 HBM 수요가 30% 추가로 성장할 것으로 내다봤다.

HBM 수요가 이처럼 늘어나는 것은 엔비디아 그래픽처리장치(GPU)를 탑재한 AI 서버와 자체 주문형 반도체(ASIC)를 개발 중인 구글과 아마존웹서비스(AWS) 등 대형 클라우드 서비스 업체들이 발빠르게 움직이고 있기 때문.

트렌드포스는 "고속 계산에서 DDR SD램의 대역폭 제한으로 인한 메모리 전송 속도 제약을 극복하기 위한 해법으로 HBM이 떠오르고 있다"며 "HBM은 혁신적인 전송 효율성으로 업계의 인정을 받고 있고, 컴퓨팅 구성요소들이 최대성능으로 작동할 수 있도록 하는데 중추적 역할을 한다"고 평가했다. 실제로 최상위권 AI서버의 GPU들이 대부분 HBM을 사용하면서, 사실상 산업 표준으로 자리잡았다는 진단이다.

트렌드포스는 2025년 AI시장 수요를 감안할 때 엔비디아 A100 GPU 등에 대한 수요가 최소 14만5600개에서 23만3700개에 이를 수 있다고 전망했다.

D램 단일 칩을 수직으로 쌓아 올려 데이터 처리 속도를 대폭 끌어올린 HBM은 높은 대역폭과 낮은 에너지 소비가 장점이다. 2014년 출시된 DDR4 SD램과 2020년 나온 DDR5 SD램의 대역폭은 2배 밖에 차이가 나지 않는다. 그러나 HBM3의 대역폭은 DDR5 대비 15배에 달한다.

박준영 현대차증권 연구원은 "AI GPU에서 메모리의 역할이 중요한 이유는 AI의 학습과 추론 속도 때문"이라며 "많은 양의 데이터를 학습할수록 AI 모델의 성능은 향상되는데, HBM은 학습할 데이터들을 저장하는 역할을 한다"고 밝혔다. 이어 "데이터를 빠르게 공급할 때 가장 중요한 특질은 메모리의 대역폭"이라며 "메모리의 대역폭은 도로에 비유한다면 도로의 너비에 해당하는데, 도로가 넓을수록 한번에 많은 차가 통과할 수 있는 것과 같은 논리"라고 설명했다.

엔비디아 H100 /사진=엔비디아 홈페이지


SK하이닉스는 HBM3을 전세계에서 유일하게 양산 중이며, 엔비디아 H100에 단독으로 공급하고 있다. H100은 현존하는 가장 고성능의 AI GPU로, 현재 AI CPU 시장에서 엔비디아 A100과 함께 점유율 90% 이상을 차지하고 있다.

고영민 신한투자증권 연구원은 "SK하이닉스의 HBM은 올해와 내년 각각 45%, 40%의 매출 성장이 예상된다"며 "업황 반등 구간에서 가파른 이익 증가가 기대된다"고 분석했다.

임동욱 기자 dwlim@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?