[현장]인텔·네이버·카이스트의 AI 협력..."가우디 기반 vLLM 개발"

이윤주 2025. 5. 29. 20:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

라마 기준으로 A100 대비 1.2배 성능
카이스트·서울대·포스텍, 40여 편 논문 및 오픈소스 공개
인텔 리더십 교체로 2차 년도 운영은 미정
성민혁 카이스트 교수가 29일 서울 여의도에서 열린 NIK AI 공동연구센터 성과 발표회에서 연구 논문을 소개하고 있다. 인텔코리아 제공

인텔, 네이버, 카이스트가 함께 만든 공동연구센터(NIK AI 리서치센터)가 인텔의 인공지능(AI) 가속기 가우디 2를 활용한 대규모언어모델(LLM) 시스템을 개발했다고 밝혔다. 인공지능(AI) 반도체의 절대 강자, 엔비디아에 의존하지 않은 개방형 AI 생태계 구축을 위해 공동연구센터가 문을 연 지 9개월 만이다.

인텔, 네이버, 카이스트는 29일 서울 여의도에서 NIK AI 리서치센터의 협업 성과를 공개했다.

세 기관은 2024년 8월부터 가우디 2를 활용해 네이버와 국내 주요 대학(카이스트, 포스텍, 서울대 등 22개 연구실)이 참여하는 산학 협력 프로젝트를 추진해왔다. 가우디 2를 이용해 LLM 개발을 비롯해 헬스케어, 반도체 설계 등 다양한 분야에서 연구를 진행했다. 김정호 카이스트 교수는 "6세대 고대역폭메모리(HBM4)부터는 열과 전력 효율성이 매우 중요해진다"며 "저희 연구실은 인텔, 네이버클라우드와 협력해 HBM의 전력과 열 설계를 AI 강화 학습 기술로 최적화하는 연구를 진행하고 있다"고 말했다.

22개 연구실은 총 40편 이상의 논문을 발표하거나 투고하고, 개발 공유 플랫폼 깃허브에 30개 이상의 오픈소스 소프트웨어를 공개했다. 일부 논문은 세계적 권위의 반도체학회 ISCA에 채택되는 등 학술적 성과도 거뒀다.

이동수 네이버클라우드 전무가 29일 서울 여의도에서 열린 NIK AI 공동연구센터 성과 발표에서 네이버의 협업 과정을 설명하고 있다. 인텔코리아 제공

대표 성과 중 하나가 실제 서비스 환경에서 엔비디아 그래픽처리장치(GPU)에 버금가는 성능을 보여주는 가우디용 가상 LLM 개발이다. 네이버는 데이터센터(IDC) 환경에서 이 LLM의 성능을 검증한 결과 메타의 오픈소스 모델 '라마' 기준으로 엔비디아의 A100과 비교해 토큰(단어 단위) 처리량이 최대 1.2배 빠른 추론 성능을 확보했다고 밝혔다. 성민혁 카이스트 교수는 "실제 업무에 적용하기 위한 추가 테스트를 진행하고 있다"고 밝혔다. 대학 연구소, 네이버가 가우디 2를 사용하는 과정에서 경험한 장단점을 인텔과 나누고, 인텔이 이들의 요청 사항을 AI 칩 개발에 반영하게 된 점도 이번 협업의 성과로 꼽힌다. 이동수 네이버클라우드 전무는 "AI반도체 회사들이 각자 제품 성능을 자랑하지만 어떤 환경, 어떤 AI 모델을 썼을 때 경쟁사보다 성능이 나은지 비교 조건이 공개되지 않으면 AI 개발 업체에는 의미 없는 정보"라며 "공급자 중심인 AI 반도체 시장에 (네이버와 같은) 서비스 기업이 더 많이 참여할 수 있길 바란다"고 말했다.

세 기관은 8월 1차 프로젝트를 마친 후 성과 평가를 거쳐 협업을 이어갈지 결정할 계획이다. 김정호 교수는 "프로젝트는 애초에 3년 계획이지만 (인텔코리아 대표 교체 등으로) 2차 년도는 재논의가 필요한 시점"이라고 말했다.

이윤주 기자 misslee@hankookilbo.com

Copyright © 한국일보. 무단전재 및 재배포 금지.