“엔비디아보다 2.1배 빠르다” KAIST, AI반도체 속도 높이는 ‘오토GNN’ 개발

서지혜 기자 2026. 2. 5. 09:20
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

유튜브 영상 추천이나 금융 사기 탐지처럼 빠른 응답이 요구되는 서비스의 처리 속도를 획기적으로 높일 수 있는 인공지능(AI) 반도체 기술이 개발됐다.

이 기술을 적용하면 엔비디아 GPU 대비 서비스 속도는 2.1배 빨라지고, 전력 사용량도 크게 줄일 수 있다.

KAIST는 5일 정명수 전기및전자공학부 교수 연구팀이 그래프 신경망(GNN) 기반 인공지능의 추론 속도를 향상시키는 AI 반도체 기술 '오토GNN(AutoGNN)'을 세계 최초로 개발했다고 밝혔다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

내부 회로 전환 실시간 가속기 개발
KAIST는 5일 정명수 전기및전자공학부 교수 연구팀이 그래프 신경망 기반 인공지능 추론 속도를 높일 수 있는 AI 반도체 기술 ‘오토GNN’을 세계 최초로 개발했다고 밝혔다.


유튜브 영상 추천이나 금융 사기 탐지처럼 빠른 응답이 요구되는 서비스의 처리 속도를 획기적으로 높일 수 있는 인공지능(AI) 반도체 기술이 개발됐다. 이 기술을 적용하면 엔비디아 GPU 대비 서비스 속도는 2.1배 빨라지고, 전력 사용량도 크게 줄일 수 있다.

KAIST는 5일 정명수 전기및전자공학부 교수 연구팀이 그래프 신경망(GNN) 기반 인공지능의 추론 속도를 향상시키는 AI 반도체 기술 ‘오토GNN(AutoGNN)’을 세계 최초로 개발했다고 밝혔다. 연구팀은 AI 서비스 지연의 주요 원인이 추론 이전 단계인 ‘그래프 전처리(Graph Preprocessing)’ 과정에 있다는 점을 규명했다. 이 과정은 전체 계산 시간의 70~90%를 차지하지만, 기존 GPU는 복잡한 관계 구조를 정리하는 연산에 최적화돼 있지 않아 병목 현상이 발생해 왔다.

이를 해결하기 위해 연구팀은 입력 데이터 구조에 따라 반도체 내부 회로를 실시간으로 재구성하는 적응형 AI 가속기를 설계했다. 데이터의 연결 구조에 맞춰 칩이 스스로 가장 효율적인 연산 구조로 바뀌는 방식이다. 또한 데이터의 규모나 형태가 달라질 경우에도 최적의 모듈 구성이 자동 적용되도록 구현해, 다양한 환경에서 안정적인 성능을 유지하도록 했다.

성능 평가 결과 오토GNN은 엔비디아 고성능 GPU 대비 2.1배 빠른 처리 속도를 기록했다. 일반 CPU와 비교하면 최대 9배 빠른 성능을 보였으며, 에너지 소모는 3.3배 줄어 효율성도 크게 향상됐다.

이번 기술은 추천 시스템이나 금융 사기 탐지처럼 복잡한 관계 분석과 실시간 응답이 필요한 AI 서비스에 즉시 적용 가능하다. 데이터 구조에 따라 스스로 최적화되는 반도체 기술을 확보함으로써, 대규모 데이터를 다루는 차세대 지능형 서비스의 속도와 에너지 효율을 동시에 끌어올릴 수 있는 기반이 마련됐다는 평가다.

정 교수는 “이번 연구는 불규칙한 데이터 구조를 효과적으로 처리할 수 있는 유연한 하드웨어 시스템을 구현했다는 데 의미가 있다”며 “추천 시스템은 물론 금융·보안 등 실시간 분석이 요구되는 다양한 AI 분야에 폭넓게 활용될 것”이라고 말했다.

서지혜 기자 wise@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.