“AI 시대 데이터 너무 빨리 증가” 삼성 ‘CXL’, HBM 대안으로 부상
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
삼성전자가 엔비디아 주최로 열린 'GPU 테크놀로지 콘퍼런스(GTC) 2024'에서 고대역폭 메모리(HBM)의 뒤를 이을 차세대 반도체 기술을 소개했다.
데이비드 매킨타이어 삼성전자 제품기획 이사는 20일(현지시간) 미국 캘리포니아주 새너제이 힐튼호텔에서 '데이터 중심 컴퓨팅을 위한 컴퓨트 익스프레스 링크(CXL)'라는 주제로 발표를 가졌다.
매킨타이어 이사는 이날 CXL 기반 메모리 제품 중 하나인 'CMM-H'의 성능에 대해 자세하게 소개했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
“D램 성능의 10배” 빠른 연산처리 능력
GPU-HBM 병목 줄일 ‘마하-1’도 개발중
삼성전자가 엔비디아 주최로 열린 ‘GPU 테크놀로지 콘퍼런스(GTC) 2024’에서 고대역폭 메모리(HBM)의 뒤를 이을 차세대 반도체 기술을 소개했다.
데이비드 매킨타이어 삼성전자 제품기획 이사는 20일(현지시간) 미국 캘리포니아주 새너제이 힐튼호텔에서 ‘데이터 중심 컴퓨팅을 위한 컴퓨트 익스프레스 링크(CXL)’라는 주제로 발표를 가졌다. 이 자리에서 매킨타이어 이사는 삼성전자가 개발 중인 CXL 기술과 강점 등에 대해 설명했다. IBM, AMD, 인텔 등에서 근무한 그는 현재 삼성전자에서 컴퓨팅·메모리·스토리지 전략을 이끌고 있다.
매킨타이어 이사는 “젠슨 황 엔비디아 CEO가 기조연설에서 ‘처리해야 할 데이터가 기하급수적으로 증가하고 있다’고 말했는데 오늘 제가 소개할 CXL은 그에 대응할 수 있는 컴퓨팅 연산 능력을 완전히 구현한다”고 말했다.
‘빠르게 연결해서 연산한다’는 의미를 지닌 CXL은 중앙처리장치(CPU), 그래픽처리장치(GPU), 스토리지 등 다양한 장치를 묶어 보다 빠른 연산 처리를 지원하는 차세대 인터페이스다.
다수의 장치를 하나의 인터페이스로 통합해 한 번에 연결하기 때문에 데이터 처리 속도가 빠르고, 시스템 용량과 대역폭까지 확장할 수 있는 기반을 제공한다. 즉 고속도로(Express)처럼 대량의 데이터가 막힘없이 빠르게 오갈 수 있는 역할을 하는 셈이다.
최근 AI서비스 수요 증가로 처리해야 할 데이터 양이 폭증하면서 메모리 성능 향상이 요구되는 가운데 CXL은 기존 메모리의 한계를 극복할 대안 중 하나로 꼽힌다.
매킨타이어 이사는 이날 CXL 기반 메모리 제품 중 하나인 ‘CMM-H’의 성능에 대해 자세하게 소개했다. CMM은 ‘CXL Memory Module(메모리 모듈)’의 약자이며 H는 D램과 낸드를 함께 사용했다는 의미에서 하이브리드를 뜻한다.
매킨타이어 이사는 “CMM-H가 기본 D램 솔루션에 비해 비용 대비 성능이 10배 더 높은 것으로 나타났다”며 “AI 기반 추천 시스템을 예로 들면 CMM-H를 사용했을 때 1초당 추론하는 속도가 7배 가까이 향상됐다”고 설명했다. 그러면서 “1~2년 전에는 파워포인트만 쳐다봤지만 지금은 증명 사례(Proof point)를 보고 있다”며 “삼성은 모든 CXL 포트폴리오를 앞세워 이 분야를 선도하고 있다”고 말했다. 이론적으로 설명했던 CMM-H의 성능이 실제 사례를 통해 확인됐음을 강조한 것이다.
매킨타이어 이사는 “CMM-H를 통해 성능과 비용, 지속가능한 솔루션 등의 이점을 누리시기 바란다”고 강조했다.
한편 삼성전자는 전날 열린 정기 주주총회에서 AI 반도체 시장의 판도를 바꿀 새로운 칩 ‘마하-1’을 개발 중이라고 공개했다. GPU와 HBM(고대역폭메모리) 사이의 병목현상을 줄여주는 SoC(시스템온칩) 형태의 AI 가속기로, 연말 시제품 양산이 가능할 전망이다. 현재 HBM에 치우쳐 있는 AI 반도체용 메모리 시장의 판도를 바꿔, SK하이닉스의 주도권을 빼앗아 오겠다는 포부로 풀이된다.
경계현 삼성전자 DS부문장 “현존하는 AI 시스템은 메모리 병목(현상)으로 인해 성능 저하와 파워 문제를 안고 있다”며 “마하-1은 트랜스포머 모델에 적합하게 규정돼있는 제품으로, 여러 알고리즘을 써서 메모리와 GPU 사이에 발생하는 병목현상을 약 8분의 1 정도로 줄인다”고 설명했다. 이어 “HBM 보다 LP(저전력) 메모리를 써도 LLM(거대언어모델) 추론이 가능하도록 준비를 하고 있다”고 강조했다.
새너제이(미국)=김현일 기자, 김민지 기자
joze@heraldcorp.com
Copyright © 헤럴드경제. 무단전재 및 재배포 금지.
- “설마했는데” 이재용 손에 든 ‘역대급’ 제품…결국 나온다
- 경찰 공개수배에 ‘화들짝’…女화장실 몰카 20대, 석달만에 자수
- “도저히 못참겠다” 여대생들, 비키니 입고 줄줄이 등교…이 나라 무슨 일
- KBS교향악단, 6년 만에 새 앨범 낸다…잉키넨의 차이콥스키 5번
- 정은채, '기안84 후배' 김충재와 열애…"좋은 감정"
- "저게 내 차" 외제차 키 맡기더니 트럭 몰고 줄행랑…먹튀에 음주운전까지 했다
- “애들 보는데 민망” 전종서 ‘레깅스 시구’ 둘러싼 논란, 왜?
- "활어회 공짜로 드세요"…'바가지 논란' 소래포구 특단 대책 통할까
- "류준열, 북극곰 살리자더니 골프광"…그린피스에도 불똥
- "흉기로 190회 찔렀는데 우발범행이냐" 딸 잃은 모친의 절규…피고인 측 “심신미약” 주장