AI 메모리 전쟁…HBM 이어 CXL로 확전

김상범 기자 2024. 1. 3. 21:52
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

적층으로 속도 개선 HBM…메모리 용량 탄력 배분으로 효율 높인 CXL
삼성전자, 작년 말 업계 최초로 CXL 성능 검증 성공…기술력 선두 평가
HBM 시장 주도 SK하이닉스, CES 2024에 차세대 CXL 공개로 ‘맞불’

글로벌 생성형 인공지능(AI) 투자가 급증하면서 막대한 분량의 AI 작업을 수행할 메모리 장치의 중요성도 날로 높아지고 있다. 데이터 처리 속도를 향상시킨 고대역폭메모리(HBM)에 이어, D램의 확장성을 무기로 삼은 ‘컴퓨트익스프레스링크(CXL)’가 최근 메모리 업계의 새로운 먹거리로 떠오르고 있다.

HBM은 SK하이닉스가 주도하는 데 비해 CXL 분야에선 삼성전자가 다소 앞서 있다. 이런 가운데 SK하이닉스도 1월 세계 최대 가전·정보기술(IT)전시회 ‘CES 2024’에서 차세대 CXL 전시를 준비하는 등 속도를 내고 있다.

SK하이닉스는 오는 9일부터 미국 라스베이거스에서 열리는 ‘CES 2024’에 HBM3E 등 주력 AI 메모리 제품을 전시할 예정이라고 3일 밝혔다.

아울러 SK하이닉스는 ‘SK ICT(정보통신기술) 패밀리 데모룸’을 마련해 차세대 CXL 메모리를 선보이겠다는 계획이다. CXL 기반 연산 기능을 통합한 메모리 솔루션 시제품도 공개한다.

CXL은 중앙처리장치(CPU)와 메모리, 그래픽처리장치(GPU), 저장장치 등을 보다 효율적으로 활용할 수 있게 해 주는 인터페이스를 일컫는다. 다수의 메모리 반도체를 연결해 거대한 공용 메모리 풀(pool)을 형성하는 기술로, 서버 구조를 바꾸지 않고도 메모리 용량을 늘릴 수 있다. 이론상 서버에 필요한 D램을 거의 무한대로 확장할 수 있다. 연산에 필요한 메모리 성능을 획기적으로 높여준다는 점에서, 마찬가지로 AI용 칩에 많이 탑재되는 HBM과도 비슷하다.

다만 그 방식은 차이가 있다. HBM이 여러 개의 D램을 연결해 연산 속도를 끌어올린 ‘제품’이라면, CXL은 메모리 용량을 유연하게 확장하는 ‘기술’이다.

HBM에서는 SK하이닉스가 선도 역할을 하지만 CXL에서만큼은 삼성전자가 앞서 있다. 삼성전자는 지난해 12월에 업계 최초로 기업용 리눅스 1위 기업 레드햇과 CXL 메모리 동작 검증에 성공했다.

SK하이닉스도 추격의 고삐를 죄고 있다. SK하이닉스는 이날 “DDR5 기반 96기가바이트(GB), 128GB CXL 2.0 메모리 솔루션 제품을 올 하반기 상용화해 AI 고객들에게 공급할 예정”이라고 밝혔다.

김상범 기자 ksb1231@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?