AI가 불지핀 메모리 시장, 이번에는 CXL로 ‘들썩’···대체 뭐길래?

김상범 기자 2024. 1. 3. 13:49
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

CXL 개념도. SK하이닉스 제공

글로벌 생성형 인공지능(AI) 투자가 급증하면서 막대한 분량의 AI 작업을 수행할 메모리 장치의 중요성도 날로 높아지고 있다. 데이터 처리속도를 향상시킨 고대역폭메모리(HBM)에 이어, D램의 확장성을 무기로 삼은 ‘컴퓨트익스프레스링크(CXL)’가 최근 메모리 업계의 새로운 먹거리로 떠오르고 있다.

HBM는 SK하이닉스가 주도하는 데 비해 CXL 분야에선 삼성전자가 다소 앞서 있다. 이런 가운데 SK하이닉스도 1월 세계 최대 가전·정보기술(IT)전시회 ‘CES 2024’에서 차세대 CXL 전시를 준비하는 등 속도를 내고 있다.

SK하이닉스는 오는 9일부터 미국 라스베이거스에서 열리는 HBM3E 등 주력 AI 메모리 제품을 전시할 예정이라고 3일 밝혔다.

아울러 SK하이닉스는 ‘SK ICT(정보통신기술) 패밀리 데모룸’을 마련해 차세대 CXL 메모리를 선보이겠다는 계획이다. CXL 기반 연산 기능을 통합한 메모리 솔루션 시제품도 공개한다.

CXL은 중앙처리장치(CPU)와 메모리, 그래픽처리장치(GPU), 저장장치 등을 보다 효율적으로 활용할 수 있게 해 주는 인터페이스를 일컫는다. 다수의 메모리 반도체를 연결해 거대한 공용 메모리 풀(pool)을 형성하는 기술로, 서버 구조를 바꾸지 않고도 메모리 용량을 늘릴 수 있다. 이론상 서버에 필요한 D램을 거의 무한대로 확장할 수 있다.

SK하이닉스 CES 2024 전시 제품 (왼쪽부터 시계 방향으로) ▲HBM3E ▲CXL Memory ▲CMS ▲AiMX

때문에 CXL은 방대한 데이터 처리를 필요로 하는 AI 컴퓨팅에 적합한 기술로 최근 각광받고 있다. 연산에 필요한 메모리 성능을 획기적으로 높여준다는 점에서, 마찬가지로 AI용 칩에 많이 탑재되는 HBM과도 비슷하다.

다만 그 방식은 차이가 있다. HBM이 여러 개의 D램을 연결해 연산 속도를 끌어올린 ‘제품’이라면, CXL은 메모리 용량을 유연하게 확장하는 ‘기술’이다. HBM이 큰 빌딩이라면, CXL은 공유오피스에 비유할 만하다.

HBM에서는 SK하이닉스가 선도 역할이지만 CXL에서만큼은 삼성전자가 앞서 있다. 삼성전자는 지난해 12월에 업계 최초로 기업용 리눅스 1위 기업 레드햇과 CXL 메모리 동작 검증에 성공했다. 2021년 CXL 기반 D램 기술을 최초로 개발한 데 이어, 작년 5월엔 CXL 2.0을 지원하는 128GB D램을 개발했다.

SK하이닉스도 추격의 고삐를 죄고 있다. SK하이닉스는 이날 “DDR5 기반 96기가바이트(GB), 128GB CXL 2.0 메모리 솔루션 제품을 올 하반기 상용화해 AI 고객들에게 공급할 예정”이라고 밝혔다.

현재 CXL 기반 메모리는 인텔 CPU 4세대 일부 제품에 탑재돼 있긴 하지만, 확장 능력이 한정적인 ‘1.1 규격’을 지원하기 때문에 장점을 제대로 못 살리고 있다는 평가를 받는다. 인텔은 상반기 중 확장성을 대폭 늘린 CXL 2.0 규격에 맞는 첫 CPU 5세대 제온 프로세서를 출시할 예정이다. 인텔 CPU가 CXL 2.0 규격을 지원하기 시작하면 CXL 시장도 본격 개화할 것이라는 전망이 나온다.

김상범 기자 ksb1231@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?