[AI혁명](25)AI 미래 책임지는 'HBM-PIM'…삼성 메모리 혁신 박차

김평화 2023. 4. 28. 05:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 데이터 처리 지원하는 혁신 메모리 선봬
HBM-PIM, 성능 높이고 전력 사용 줄인다
차세대 기술 개발 위해 외부 협력도 적극적

차세대 메모리 반도체는 인공지능(AI) 시대를 앞당길 핵심 열쇠다. 메모리 업계 1위 삼성전자는 이에 대응하기 위해 연산 기능을 품은 메모리 제품을 선보이는 등 기술 혁신에 힘쓰고 있다. 기존에 있던 기술 문법 대신 새로운 아이디어로 AI 수요에 대응하며 메모리 새 시대를 연다는 계획이다.

삼성전자는 지난달 미국 캘리포니아에서 열린 멤콘(MemCon) 2023에 참가해 차세대 메모리 제품을 여럿 공개했다. MemCon은 AI 관련 메모리 솔루션을 살피는 데 목적을 둔 학회로 올해 처음 열렸다.

초대규모 인공지능(AI) 지원을 위해 그래픽처리장치(GPU)와 쓰이는 HBM-PIM 예시 이미지 / [이미지출처=삼성전자 반도체 뉴스룸]

삼성전자는 이 자리에서 대규모 데이터 처리를 요구하는 AI 학습 및 연산에 적합한 ▲고대역폭 메모리(HBM)-프로세싱 인 메모리(PIM) ▲컴퓨트 익스프레스 링크(CXL) D램 ▲프로세싱 니어 메모리(PNM) ▲차세대 솔리드 스테이트 드라이브(SSD) 등을 선보였다.

삼성전자는 지난해 10월(삼성 테크 데이 2022)과 8월(플래시 메모리 서밋) 열린 메모리 관련 행사에서도 이들 제품을 소개하며 차세대 제품 개발 및 관련 시장 선점 의지를 드러냈다. AI 활용도가 커질수록 고성능·고용량 메모리 활용이 필수이기 때문이다.

현재 컴퓨터는 '폰 노이만 구조'로 설계돼 있다. 중앙처리장치(CPU)와 기억(메모리) 장치를 두고 CPU가 메모리에서 명령어를 불러와 실행한 뒤 다시 메모리에 이를 저장하는 작업이 이뤄진다. 이렇다 보니 CPU와 메모리가 주고받는 데이터가 많을수록 작업 처리가 느려진다. 흔히 말하는 병목 현상이 나타나는 것이다.

AI는 방대한 양의 데이터를 기반으로 학습과 연산을 거친다. AI 기술이 고도화할수록 데이터 병목 현상이 늘 수밖에 없다 보니 메모리 기술 혁신이 필수다. 삼성전자는 이에 대응하기 위해 최근 몇 년간 기존 메모리 문법을 뒤집는 차세대 메모리 제품을 여럿 선보였다.

대표 성과가 2021년 세계 최초로 선보인 HBM-PIM이다. HBM-PIM은 CPU가 담당하던 일부 연산 기능을 직접 해 데이터 이동량을 줄인 메모리다. 쉽게 말해 AI 엔진을 품은 HBM의 새로운 모델이다. HBM은 여러 D램을 수직으로 쌓아 데이터 전송 속도를 높인 고성능 D램 종류로, HBM-PIM은 일반 HBM보다 성능이 높고 전력 사용은 적은 것이 특징이다.

삼성전자는 지난해 10월 GPU 업체 AMD와 HBM-PIM 성능 테스트를 진행했다. 상용화된 제품인 AMD GPU(MI-100) 가속기 카드에 HBM-PIM을 탑재, 가속기 성능이 탑재 전과 비교해 2배 늘고 에너지 소모는 50% 줄어든 것을 확인했다. 현재 HBM-PIM을 상용화할 수 있도록 여러 기초 작업을 진행하고 있다.

이 과정에서 HBM 개발에도 성과를 내고 있다. HBM은 1세대(HBM), 2세대(HBM2) 등을 거치며 꾸준히 진화하고 있다. 삼성전자는 16기가바이트(GB), 24GB HBM3 샘플을 시장에 선보이고 있다. 본격적인 양산 준비를 마친 상태다. HBM3보다 성능과 용량을 개선한 차세대 HBM3P도 하반기 내놓을 예정이다.

CXL 기술을 활용한 메모리 제품도 꾸준히 선보이고 있다. CXL은 고성능 컴퓨팅 시스템에 쓰는 차세대 인터페이스다. CPU, 그래픽처리장치(GPU)와 메모리 간 연결 통로를 추가로 마련해 처리 가능한 데이터를 획기적으로 늘리는 기술이다.

삼성전자는 지난해 512GB 고용량 CXL D램을 업계 최초로 선보였다. 메모리 옆에 연산 기능을 두는 PNM에다 CXL을 더한 기술도 공개했다. 올해는 CXL D램을 다양한 용량으로 선보인다. CXL SSD도 개발 중이다. 회사는 27일 콘퍼런스콜에서 "올해 들어 CXL 고객사 샘플 문의가 늘고 있다"며 수요 확대에 기대감을 표했다.

삼성전자는 최근 차세대 메모리 개발 과정에서 외부 협력도 늘리고 있다. 지난해 12월엔 네이버와 AI 전용 메모리 제품을 개발하겠다고 밝혔다. 초거대 AI 언어 모델(하이퍼클로바)을 선보인 네이버와 협력해 메모리 병목 현상을 해결할 최적의 반도체 솔루션을 내놓겠다는 계획이다. 현재 구체적인 협력 과제를 추리고 있다.

김평화 기자 peace@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?