안꺾이는 엔비디아 독주에···인텔이 꺼낸 ‘두가지 무기’[줌컴퍼니]

허진 기자 2024. 4. 13. 07:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

비전2024서 차세대 AI가속기 가우디3 발표
엔비디아 대표 칩 대비 추론·학습력 웃돌아
칩 성능 외 생태계·개방성 무기로 들고나와
국내선 네이버와 공동연구소 짓고 SW 개발
팻 겔싱어 인텔 CEO가 지난 9일(현지시각) 미국 애리조나 주에서 열린 ‘비전2024’에서 발언하고 있다.사진=인텔
[서울경제]

인텔이 차세대 인공지능(AI) 가속기를 선보이며 AI 컴퓨팅 시장을 주도하는 엔비디아에 견제구를 날렸다. 칩 자체의 성능을 끌어올린 것은 물론 개방성과 소프트웨어(SW) 생태계라는 두가지 무기를 내세워 시장 점유율을 높인다는 전략이다.

인텔은 9일(현지시각) 미국 애리조나주 피닉스에서 열린 연례 행사 ‘비전 2024’를 통해 차세대 AI 가속기 ‘가우디3’를 소개했다. 가우디3는 엔비디아의 신형 그래픽처리장치(GPU)인 B200과 같이 두 개의 칩을 연결한 칩렛 구조로 설계됐다. 효율적인 병렬 연산을 위해 64개의 텐서프로세서코어(TPC)와 8개의 매트릭스매스엔진(MME)을 탑재했다. 128기가바이트(GB) 용량의 고대역폭메모리(HBM)이 들어갔는데 올해 양산을 앞둔 5세대 버전인 HBM3E보다 2세대 전 제품인 HBM2이어서 눈길을 끌기도 했다.

가우디3 설계 구조.사진=인텔

인텔의 AI 가속기가 정조준하는 경쟁사는 AI 연산 시장을 압도하는 엔비디아다. 신제품을 소개할 때 비교 군으로 삼은 제품도 다름 아닌 업계 최강의 성능을 자랑하는 엔비디아 H100이었다. 인텔에 따르면 가우디3는 모델 추론 영역에서 H100 대비 학습 시간을 50% 단축할 수 있고 추론 처리량도 50% 빠르다. 전력 효율도 40% 향상됐다. 가격이 확정되지 않았지만 엔비디아 경쟁 제품보다 가격경쟁력이 높을 것으로 전망된다.

그럼에도 인텔이 칩 성능과 가성비만으로 엔비디아를 추격하기는 쉽지 않다는 게 중론이다. 인텔이 H100을 비교군으로 자사 칩 성능을 강조했지만 올해 하반기 신형 GPU인 B200이 나오면 격차는 다시 벌어진다. 엔비디아는 칩 설계 노하우는 물론 칩 간 연결성, 확장성 등에서 높은 기술력을 자랑하고 있다.

인텔이 이번에 성능 외에도 개방성을 무기로 들고나온 이유다. 회사는 가우디 3가 이더넷(Ethernet)을 지원한다는 점을 강조했다. 이더넷은 컴퓨터나 프린터, 스캐너 등 장치를 연결하는 컴퓨터 네트워크 기술의 하나다. 전세계의 사무실이나 가정에서 일반적으로 사용되는 근거리통신망(LAN) 기술 규격이다. 다양한 벤더 제품과 호환이 가능하다는 게 장점이다. 이더넷을 따르는 최대 수만 개의 가속기를 연결해 AI 시스템을 구축할 수 있다.

이더넷 규격을 지원하는 가우디3는 수만 개의 AI 가속기를 연결해 AI 시스템을 구축할 수 있다.사진=인텔

이는 엔비디아 제품이 ‘인피니밴드(InfiniBand)’ 규격으로만 동작하는 점을 겨냥한 전략이다. 인피니밴드는 지 연속도가 느리고 데이터 처리량이 빠르지만 사실상 엔비디아만 쓰는 규격이어서 이더넷에 비해 외부 벤더와의 호환성이나 개방성이 떨어진다. 겔싱어 CEO는 이번 행사 연설에서 “엔비디아 제품이 이제 지겹지 않느냐”며 자사 제품 외에도 이더넷을 기반으로 다양한 벤더사의 제품과 연결되는 가우디3의 장점을 유머를 섞어 부각했다.

인텔이 강조한 또 다른 강점은 SW 생태계다. 엔비디아가 오랜 시간 공들여 온 SW 생태계는 GPU 아성을 단단히 하며 수많은 AI 가속기의 도전을 꺾어왔다. GPU가 그래픽 처리를 넘어 AI 애플리케이션(앱) 개발에 사용될 것을 미리 내다본 젠슨 황 엔비디아 CEO는 일찍이 자사 GPU를 통해 손쉽게 앱을 개발할 수 있도록 하는 SW 툴인 쿠다(CUDA)를 지속적으로 고도화해왔기 때문이다. GPU의 단점을 보완하고 AI 앱 구현에 특화된 AI 가속기가 나와도 쿠다에 익숙해진 엔지니어들이 쉽게 다른 AI 반도체로 갈아타기 어려웠다.

이러한 점에 착안해 인텔은 이번에 랜딩 AI, 로보플로, 시커 등과 파트너십을 맺고 하드웨어 뿐 아니라 SW 생태계를 넓히기 위해 노력하고 있다. 여기에는 네이버 등 아시아 기업들도 포함됐다. 인텔은 네이버와 코랩(Co-lab)을 설립하고 국내 스타트업, 대학 인재들을 끌여들여 가우디를 보다 손쉽게 활용할 수 있는 SW 플랫폼들을 만들어나갈 계획이다. 이동수 네이버클라우드 AI이피션시(Efficiency) 이사는 “거대언어모델(LLM)이 챗GPT 이후 대중화하면서 엔지니어들이 쿠다를 직접 다루기보다는 LLM을 다루는 데 필요한 소프트웨어를 사용하는 쪽으로 바뀌고 있다”며 “현재 국내 유수의 대학 연구실들을 탐색하고 있고 향후 그들과의 협업 결과물을 꾸준히 만들어나갈 것이다”고 강조했다.

허진 기자 hjin@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?