'고성능·고수익' HBM 반도체…"내년엔 HBM3·HBM3E가 장악"

김민성 기자 2023. 8. 2. 11:49
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT 이후 인공지능(AI) 서비스를 위한 AI 서버 투자가 늘어나면서 내년 고대역폭메모리(HBM) 시장은 HBM3와 HBM3E 제품이 장악할 것이란 분석이 나왔다.

2일 시장조사업체 트렌드포스는 보고서에서 "올해 HBM 시장 주요 제품은 클라우드 서비스 제공자들이 사용 중인 HBM2E이지만 AI향 칩 수요가 늘며 내년엔 HBM3와 HBM3E가 시장에서 주류로 자리 잡을 것"이라고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

용량·속도 높인 HBM에 초점…SK하이닉스, 현존 최고 사양 HBM3E 양산
내년 생산량 올해보다 2배 늘릴 듯…HBM 연평균 최대 45% 성장 가능성
(삼성전자 제공)

(서울=뉴스1) 김민성 기자 = 챗GPT 이후 인공지능(AI) 서비스를 위한 AI 서버 투자가 늘어나면서 내년 고대역폭메모리(HBM) 시장은 HBM3와 HBM3E 제품이 장악할 것이란 분석이 나왔다. HBM 시장이 2025년까지 연평균 최대 45% 성장률을 기록할 것이란 '장밋빛' 전망도 나온다.

2일 시장조사업체 트렌드포스는 보고서에서 "올해 HBM 시장 주요 제품은 클라우드 서비스 제공자들이 사용 중인 HBM2E이지만 AI향 칩 수요가 늘며 내년엔 HBM3와 HBM3E가 시장에서 주류로 자리 잡을 것"이라고 밝혔다.

HBM은 D램 여러 개를 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 제품이다. 생성형 AI 서버에 탑재되는 HBM 가격은 기존 메모리보다 6배 이상 높아 수익성도 뛰어나다.

HBM3은 처리 속도를 기준으로 2가지로 세분화된다. 5.6~6.4Gbps(초당 기가비트) 사이의 속도로 실행되는 HBM3, 이보다 속도가 한층 빠른 8Gbps의 HBM3E로 나뉜다.

현재까지 구글, 아마존 등 클라우드 서버 기업들은 대부분 HBM3보다 한단계 아래인 HBM2E를 사용하는 것으로 알려져 있다. 앞으로 AI 서비스를 원할히 지원하려면 처리 속도가 빠르고 용량이 큰 HBM의 수요가 늘어날 것으로 보인다.

글로벌 반도체 업체들도 HBM3 생산에 초점이 맞춰져 있다. 현존 최고 사양인 HBM3은 SK하이닉스(000660)가 유일하게 생산하고 있고 내년 상반기에 HBM3E 양산을 시작할 예정이다.

삼성전자(005930)는 연내 기존 비전도성필름(NCF) 공법을 업그레이드한 HBM3 제품을 출시하면서 역전을 노린다. 올 하반기 5세대에 해당하는 24GB(기가바이트) 기반 HBM3P를 출시할 예정이다. 후발주자인 마이크론은 HBM3을 건너뛰고 HBM3E 개발을 시작할 것으로 보인다.

AI시대를 맞아 HBM이 주목받고 있지만 D램 시장에서 HBM의 비중은 1.5%로 아직 미미한 수준이다. 다만 앞으로 성장 전망은 뚜렷하다. 트렌드포스는 올해부터 2025년까지 HBM 시장 규모가 연평균 45% 급성장할 것으로 전망했다. 삼성전자와 SK하이닉스는 내년 HBM 생산량을 올해 대비 2배 이상으로 끌어올린다는 계획이다.

(SK하이닉스 제공)

ms@news1.kr

Copyright © 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.

이 기사에 대해 어떻게 생각하시나요?