트렌드포스 "올해 HBM 수요 60% 증가 전망…GPU 등 영향"

김아람 2023. 6. 28. 18:12
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 서버 개발에 필요한 D램 반도체인 고대역폭메모리(HBM)에 대한 수요가 올해 큰 폭으로 늘어날 것이라는 전망이 나왔다.

트렌드포스는 "현재 HBM 수요가 증가하는 원동력은 엔비디아 GPU를 탑재한 AI 서버와 자체 주문형 반도체(ASIC)를 개발 중인 구글과 AWS 등 대형 클라우드 서비스 업체들"이라고 설명했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

SK하이닉스 HBM3 24GB [SK하이닉스 제공. 재판매 및 DB 금지]

(서울=연합뉴스) 김아람 기자 = 인공지능(AI) 서버 개발에 필요한 D램 반도체인 고대역폭메모리(HBM)에 대한 수요가 올해 큰 폭으로 늘어날 것이라는 전망이 나왔다.

대만 시장조사업체 트렌드포스는 28일 올해 전 세계 HBM 수요가 2억9천만 기가바이트(GB)로 작년보다 60% 가까이 증가하고, 내년에는 30% 더 성장할 것으로 내다봤다.

HBM은 D램 여러 개를 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고성능 제품이다.

AI 서비스가 제대로 구현되기 위해서는 방대한 데이터를 원활히 처리할 수 있는 고성능·고용량 D램이 필수다.

아직 HBM이 전체 D램 시장에서 차지하는 비중은 미미하지만, 챗GPT에 쓰이는 엔비디아 그래픽처리장치(GPU) 등에 탑재되면서 메모리 불황의 돌파구로 주목받는다.

트렌드포스는 "현재 HBM 수요가 증가하는 원동력은 엔비디아 GPU를 탑재한 AI 서버와 자체 주문형 반도체(ASIC)를 개발 중인 구글과 AWS 등 대형 클라우드 서비스 업체들"이라고 설명했다.

GPU, 로봇에 탑재되는 프로그래머블 반도체(FPGA), 클라우드 서버에 쓰이는 ASIC 등을 탑재한 AI 서버 출하량도 올해 38% 가까이 늘어 120만대에 육박할 것으로 트렌드포스는 예상했다.

rice@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?