인공지능 성장, "고대역 메모리 HBM3 경쟁 뜨겁다"

동효정 기자 2023. 8. 1. 16:46
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 수요가 급격히 확대하면서 삼성전자와 SK하이닉스를 시작으로 대부분 칩 제조업체들이 2024년 고대역 메모리인 HBM3E 신제품을 대거 공개할 전망이다.

트렌드포스 측은 "HBM3E의 용량이 24GB로 확대되면 이는 2025년 출시를 앞두고 있는 엔비디아의 차세대 GPU GB100에 탑재될 것"이라며 "주요 메모리 업체들은 내년 1분기에 HBM3E 샘플을 출시하고, 2024년 하반기 양산에 나설 것"이라고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

트렌드포스 "2024년 HBM3·HBM3E 주류 전망"
[서울=뉴시스] 글로벌 주요 제조업체 HBM 개발 예상 계획. (사진=트렌드포스) 2023.08.02. photo@newsis.com *재판매 및 DB 금지

[서울=뉴시스] 동효정 기자 = 인공지능(AI) 수요가 급격히 확대하면서 삼성전자와 SK하이닉스를 시작으로 대부분 칩 제조업체들이 2024년 고대역 메모리인 HBM3E 신제품을 대거 공개할 전망이다.

1일 시장조사업체 트렌드포스는 내년에는 HBM3과 HBM3E가 메모리 시장의 주류로 떠오를 것이라고 밝혔다.

HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고대역폭 메모리를 말한다. 방대한 양의 데이터를 빠르게 학습하고 처리해야 하는 AI 산업 성장과 함께 HBM 수요도 폭발적으로 늘고 있다.

트렌드포스는 HBM3를 속도를 기준으로 2가지 범주로 세분했다. HBM3는 5.6~6.4Gbps(초당 기가비트) 사이의 속도로 실행되는 HBM을 말하며 HBM3P, HBM3A, HBM3+ 등의 이름을 가진 8Gbps 속도의 HBM은 HBM3E로 본다.

현재 최고 성능의 HBM은 D램 12개를 수직으로 쌓은 24GB(기가바이트) 용량의 HBM3로 풀 HD 화질 영화 163편을 1초 만에 전송할 수 있다.

트렌드포스는 내년에는 삼성전자와 SK하이닉스가 HBM3E 샘플링에 돌입하고 미국 마이크론은 HBM3를 건너뛰고 HBM3E 개발에 돌입할 것으로 봤다.

삼성전자는 연내 HBM3에 이어 내년 HBM3E 대량 양산 체제를 구축하며 6세대 HBM4 양산도 준비할 예정이다.

SK하이닉스는 현재 4세대 HBM인 HBM3를 생산하는 유일한 업체다. 내년 상반기에는 5세대 제품인 HBM3E 양산에 돌입하고, 2025년 6세대 제품인 HBM4 양산에도 나선다.

마이크론도 내년 상반기 HBM3E의 대량 생산체제를 가동한다.

트렌드포스 측은 "HBM3E의 용량이 24GB로 확대되면 이는 2025년 출시를 앞두고 있는 엔비디아의 차세대 GPU GB100에 탑재될 것"이라며 "주요 메모리 업체들은 내년 1분기에 HBM3E 샘플을 출시하고, 2024년 하반기 양산에 나설 것"이라고 밝혔다.

☞공감언론 뉴시스 vivid@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?