기존 보다 2.36배 빠르게 서비스하는 AI 가속기 개발
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
국내 연구진이 현재 인공지능(AI) 가속기 시장을 독점하는 엔비디아(NVIDIA)에 대응하기 위해 차세대 인터페이스 기술이 활성화된 고용량·고성능 AI 가속기를 개발했다.
기술 실효성을 검증한 결과, 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행할 수 있는 것으로 나타났다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
GPU 장치 메모리 읽기·쓰기 성능 최적화
[이데일리 강민구 기자] 국내 연구진이 현재 인공지능(AI) 가속기 시장을 독점하는 엔비디아(NVIDIA)에 대응하기 위해 차세대 인터페이스 기술이 활성화된 고용량·고성능 AI 가속기를 개발했다.
한국과학기술원(KAIST)은 정명수 전기전자공학부 교수 연구팀이 차세대 인터페이스 기술인 ‘컴퓨트 익스프레스 링크(CXL, Compute Express Link)이 활성화된 고용량 그래픽처리장치(GPU)의 메모리 읽기·쓰기 성능을 최적화하는 기술을 개발했다고 8일 밝혔다.
이에 CXL을 활용해 대용량 메모리를 GPU 장치에 직접 연결하는‘CXL-GPU’구조 기술이 산업계에서 검토되고 있다. 하지만 CXL-GPU의 고용량 특징만으로는 실제 AI 서비스에 활용되기 어렵다. 대규모 AI 서비스는 빠른 추론·학습 성능을 요구하기 때문에 GPU에 직접 연결된 메모리 확장 장치로의 메모리 읽기·성능이 기존 메모리에 준하는 성능을 보장해야 하기 때문이다.
연구팀은 CXL-GPU 장치의 메모리 읽기·쓰기 성능이 저하되는 원인을 분석하고, 이를 개선했다. 메모리 확장 장치가 메모리 쓰기 타이밍을 스스로 결정할 수 있는 기술을 개발해 GPU 장치가 메모리 확장 장치에 메모리 쓰기를 요청하면서 GPU 로컬 메모리에도 쓰기를 하도록 설계했다.
또 메모리 확장 장치가 사전에 메모리 읽기를 수행하도록 GPU 장치에서 미리 힌트를 주는 기술을 개발했다. 이 기술을 활용하면 메모리 확장 장치가 메모리 읽기를 더 빨리 시작해 GPU 장치가 실제 데이터를 필요로 할 때 캐시(작지만 빠른 임시 데이터 저장공간)에서 데이터를 읽어 더욱 빠른 메모리 읽기 성능을 발휘할 수 있다.
연구는 반도체 팹리스 스타트업인 파네시아의 초고속 CXL 컨트롤러와 CXL-GPU 프로토타입을 활용해 진행됐다. 기술 실효성을 검증한 결과, 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행할 수 있는 것으로 나타났다.
정명수 교수는 “CXL-GPU의 시장 개화 시기를 가속해 대규모 AI 서비스를 운영하는 빅테크 기업의 메모리 확장 비용을 낮추는 데 기여할 수 있다”고 말했다.
강민구 (science1@edaily.co.kr)
Copyright © 이데일리. 무단전재 및 재배포 금지.
- ‘13억→8억’ 세종아파트 가격 반토막난 이유
- "죽음이 배달상품처럼 눈앞에" 남자들 울린 김훈의 '허송세월'[위클리 핫북]
- "한국 망신"...필리핀 여친 임신하자 잠적한 남성 추적했더니
- 제주 입항 앞두고 '연락두절' 대만발 요트…8시간 만에 무사 확인
- YS 만나려던 김일성 사망…배후엔 아들 김정일?[그해 오늘]
- "지금 사도 안 늦어?"..삼성전자, 10만전자 갈까
- '팬텀싱어2' 성악가 조민웅, 사망 비보 뒤늦게 전해져
- "우유 1리터가 고작 1900원" 요즘 마트서 불티난 '이것'
- "10억 껑충, 난리도 아냐" 서울 아파트 월세도 고공행진…급상승 이유
- 시청역 유족에 날아든 80만원 청구서…“부적절”VS“당연”