AI 겨냥 D램 기능 높이는 삼성·SK[AI스토밍]

이재덕 기자 2023. 4. 6. 21:43
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

고성능 반도체 HBM 잇단 개발
기존 메모리에 연산 기능 더해
부가가치·경쟁력 제고에 총력

미국 엔비디아의 그래픽처리장치(GPU)인 ‘A100’은 업계에선 인공지능(AI) 반도체의 ‘기준’으로 통한다. 상당수의 첨단 데이터센터가 A100을 장착한 서버를 운영한다. 오픈AI의 챗GPT도 A100 1만개를 활용해 학습했다.

지난해에는 후속 GPU인 ‘H100’도 출시됐다. 대형언어모델 AI 서비스를 위한 필수 장비로, 지난해 9월 미국 정부가 A100과 H100을 꼭 집어 중국과 러시아에 공급하지 못하도록 수출제한품목에 포함시켰을 정도다. 엔비디아는 A100과 H100를 기판에 장착해 공급하는데 이 기판에는 SK하이닉스의 고성능 D램인 고대역폭메모리(HBM)가 장착돼 있다. 엔비디아 GPU가 인기일수록 SK하이닉스의 HBM 주가도 덩달아 오르는 관계다.

6일 업계에 따르면, 미국 기업들은 GPU 등 AI용 연산장치 개발을 주도하는 반면, 한국 기업들은 AI용 저장장치 개발의 주도권을 쥐고 있다. 챗GPT 등 대규모 데이터가 필요한 AI 서비스를 운용하기 위해서는 메모리에 최대한 많은 양의 데이터를 저장하고, 이를 빠른 속도로 불러오는 일이 중요하다.

엔비디아 GPU 기판에 장착된 HBM은 현존하는 가장 빠른 속도의 D램으로, 여러 개의 D램을 위로 쌓아올려 만든다. 기존 D램에서 데이터가 다니는 길이 1차선 도로라면, HBM은 이를 5~6차선으로 데이터가 빠르게 이동하게 돕는다.

최근 메모리 업계에서는 연산장치와 메모리 사이의 거리를 좁히는 연구가 뜨겁다. 거리를 좁히면 처리 속도가 빨라지고 소모되는 전력량도 크게 낮출 수 있다.

예컨대 삼성전자의 HBM-PIM(프로세싱 인 메모리)은 HBM 내부에 연산기능을 추가한 메모리 제품이다. 미국 AMD는 자사의 GPU인 ‘MI-100’ 기판에 최근 삼성전자의 HBM-PIM을 탑재해 판매하기 시작했다. GPU 후발주자인 AMD가 1위 엔비디아를 넘어서기 위해 PIM 메모리를 적용하는 강수를 둔 것이다. 삼성전자에 따르면, GPU 기판에 HBM-PIM을 장착하면 성능은 2배가 되고, 에너지 소모는 절반으로 줄어든다.

SK하이닉스도 지난해 그래픽 D램에 PIM 기술을 적용한 AiM(엑셀레이터 인 메모리) 개발에 성공했다. 이외에도 학계에서는 처리 속도가 빠르지만 대용량 저장이 어려워 밀려났던 'S램'을 이용한 PIM 연구가 이어지고 있다.

또 삼성전자와 SK하이닉스는 연산기를 메모리 내부가 아닌 근처에 배치하는 PNM(프로세싱 니어 메모리) 연구도 진행 중이다. 방대한 데이터가 쌓여 있는 메모리에 일종의 ‘사서’를 두는 식이다. 연산장치가 직접 왔다 갔다 하며 필요한 데이터를 하나하나 찾는 대신 서고(메모리) 앞에 사서를 배치해서 연산에 필요한 데이터를 미리 찾아주는 식이다. 연산장치는 더 복잡하고 중요한 연산에 집중하고, 불필요하게 이동하는 데이터를 줄여 전력 소비를 줄이는 효과를 볼 수 있다.

AI 메모리는 각 회사 GPU에 맞춤으로 제작되기 때문에 기존 D램보다 부가가치가 높고 경기변동으로 인한 리스크도 적다. 다만 메모리업계는 “여전히 시장 주도권은 GPU 등 프로세서를 개발하는 쪽이 쥐고 있다는 점은 한계”라고 본다. 엔비디아는 A100이 들어간 기판을 클라우드업체에 1만달러에 판매하지만, SK하이닉스의 HBM은 200달러 수준이다.

이재덕 기자 duk@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?