엔비디아에 맞서는 고용량‧고성능 GPU 나올까

정종오 2024. 7. 8. 08:08
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

KAIST 연구팀, 고용량·고성능 AI 가속기 개발

[아이뉴스24 정종오 기자] 국내 연구팀이 현재 인공지능(AI) 가속기 시장을 독점하고 있는 엔비디아(NVIDIA)에 맞설 수 있는 차세대 인터페이스 기술이 활성화된 고용량·고성능 AI 가속기를 개발했다.

최근 대규모 AI 서비스 제공 최전선에 있는 빅테크들은 더 좋은 성능을 사용자들에게 제공하기 위해 경쟁적으로 모델과 데이터의 크기를 증가시키는 추세이다. 최신 대규모 언어모델은 학습을 위해 수에서 수십 테라바이트(TB, 10의 12승 바이트)의 메모리를 요구한다.

한국과학기술원(KAIST, 총장 이광형)은 전기및전자공학부 정명수 교수 연구팀(컴퓨터 아키텍처 및 메모리 시스템 연구실)이 차세대 인터페이스 기술인 CXL(Compute Express Link)이 활성화된 고용량 GPU 장치의 메모리 읽기/쓰기 성능을 최적화하는 기술을 개발했다고 8일 발표했다.

CXL-GPU 대표 그림. [사진=KAIST]

최신 GPU의 내부 메모리 용량은 수십 기가바이트(GB, 10의 9승 바이트)에 불과해 단일 GPU만으로는 모델을 추론‧학습하는 것이 불가능하다. 대규모 AI 모델이 요구하는 메모리 용량을 제공하기 위해 업계에서는 일반적으로 GPU 여러 대를 연결하는 방식을 채택한다.

이 방법은 최신 GPU의 높은 가격으로 총소유비용(TCO, Total Cost of Ownership)을 지나치게 높이는 문제를 일으킨다.

차세대 연결 기술인 CXL(Compute Express Link)을 활용해 대용량 메모리를 GPU 장치에 직접 연결하는‘CXL-GPU’구조 기술이 다양한 산업계에서 활발히 검토되고 있다.

CXL을 통해 연결된 메모리 확장 장치들의 메모리 공간을 GPU 메모리 공간에 통합시킴으로써 고용량을 지원한다. CXL-GPU의 고용량 특징만으로는 실제 AI 서비스에 활용되기 어렵다 문제가 있다.

대규모 AI 서비스는 빠른 추론‧학습 성능을 요구하기 때문에 GPU에 직접적으로 연결된 메모리 확장 장치로의 메모리 읽기/성능이 기존 GPU의 로컬 메모리에 준하는 성능이 보장될 때 비로소 실제 서비스에 활용될 수 있다.

KAIST 연구팀은 CXL-GPU 장치의 메모리 읽기/쓰기 성능이 떨어지는 원인을 분석해 이를 개선하는 기술을 개발했다. 메모리 확장 장치가 메모리 쓰기 타이밍을 스스로 결정할 수 있는 기술을 개발, GPU 장치가 메모리 확장 장치에 메모리 쓰기를 요청하면서 동시에 GPU 로컬 메모리에도 쓰기를 수행하도록 설계했다.

메모리 확장 장치가 내부 작업을 수행 상태에 따라 작업을 하도록 해 GPU는 메모리 쓰기 작업의 완료 여부가 확인될 때까지 기다릴 필요가 없어 쓰기 성능 저하 문제를 해결할 수 있도록 했다.

연구팀은 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 이 기술을 활용하면 메모리 확장 장치가 메모리 읽기를 더 빨리 시작한다.

GPU 장치가 실제 데이터를 필요로 할 때는 캐시(작은데 빠른 임시 데이터 저장공간)에서 데이터를 읽어 더욱 빠른 메모리 읽기 성능을 달성할 수 있다.

이번 연구는 반도체 팹리스 스타트업인 파네시아(Panmnesia)의 초고속 CXL 컨트롤러와 CXL-GPU 프로토타입을 활용해 진행됐다. 파네시아는 업계 최초로 CXL 메모리 관리 동작에 필요한 왕복 지연시간을 두 자리 나노초(nanosecond, 10의 9승의 1초) 이하로 줄인 순수 국내기술의 자체 CXL 컨트롤러를 보유하고 있다.

연구팀은 파네시아의 CXL-GPU 프로토타입을 활용한 기술 실효성 검증을 통해 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행할 수 있음을 확인했다. 해당 연구는 조만간 열리는 산타클라라 USENIX 연합 학회와 핫스토리지의 연구 발표장에서 결과를 선보인다.

정명수 KAIST 전기및전자공학부 정명수 교수는 “CXL-GPU의 시장 개화 시기를 가속해 대규모 AI 서비스를 운영하는 빅테크 기업의 메모리 확장 비용을 획기적으로 낮추는 데 이바지할 수 있을 것”이라고 말했다.

/정종오 기자(ikokid@inews24.com)

Copyright © 아이뉴스24. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?