"초대형 AI의 메모리 한계 깼다"…새 메모리 확장 기술 개발

그래픽처리장치(GPU)에 탑재된 한정된 메모리로는 방대한 데이터를 한 번에 처리하기 어려워, 학습 속도가 느려지고 시스템 확장 비용도 급격히 늘어나는 문제가 반복돼 왔습니다.
한국전자통신연구원(ETRI)이 초대형 AI 학습에서 GPU 메모리 한계와 데이터 병목 현상을 동시에 해결할 수 있는 새로운 메모리 확장 기술, 옴니익스텐드(Omni-Extend)를 개발했습니다.
옴니익스텐드는 표준 네트워크 기술인 이더넷을 활용해 여러 서버와 가속기에 흩어져 있는 메모리를 하나의 대용량 메모리처럼 공유하는 방식입니다.
각 장비에 따로 존재하던 메모리를 네트워크 전체로 확장해, AI 학습에 필요한 메모리를 유연하게 확보할 수 있도록 설계됐습니다.
이 기술을 적용하면 데이터 이동 지연이 줄어들어 AI 학습 속도가 빨라지고, 서버를 교체하지 않고도 메모리 확장이 가능해 데이터센터 구축과 운영 비용을 낮출 수 있습니다.
또 이더넷 스위치를 통해 물리적으로 떨어진 장비들까지 하나의 메모리 풀로 묶을 수 있어, 초대규모 AI 학습 환경에 적합한 구조로 평가됩니다.
ETRI는 해당 기술을 지난해 프랑스와 미국에서 열린 국제 행사에서 잇따라 공개해 글로벌 연구자와 업계의 주목을 받았다고 설명했습니다.
기존 고가의 전용 인터커넥트 없이도 표준 네트워크 기반으로 확장성을 확보했다는 점이 강점으로 꼽힙니다.
연구진은 앞으로 신경망처리장치(NPU)와 다양한 가속기를 중심으로 메모리 인터커넥트 기술 연구를 확대해, 차세대 AI 시스템에 적용할 수 있도록 기술 고도화와 국제 협력을 이어갈 계획입니다.
김건교 취재 기자 | kkkim@tjb.co.kr
Copyright © TJB