구글·AWS·MS… 빅테크 AI칩 개발 전쟁

팽동현 2023. 11. 19. 18:50
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 경쟁력 높이려 직접 개발
엔비디아 제품 품귀도 영향
국내 통신사, 제휴·투자 활발
MS 애저 코발트 100. MS 제공
MS 애저 마이아 100. MS 제공
사피온의 AI반도체 'X330' 사피온 제공

생성형 AI(인공지능)로 촉발된 글로벌 AI 경쟁이 본격적으로 AI반도체 분야로까지 번지고 있다. 글로벌 CSP(클라우드서비스기업)와 AI 기술기업들이 자체 개발한 칩으로 경쟁력 강화에 나섰다. SK텔레콤, KT 등 국내 통신사들도 전략적 투자와 제휴를 통해 AI반도체 내재화에 속도를 내고 있다.

MS(마이크로소프트)는 15일(현지시간) 자사 연례 플래그십 컨퍼런스 'MS 이그나이트 2023'을 통해 AI가속기 'MS 애저 마이아(Maia)'와 CPU(중앙처리장치) 'MS 애저 코발트(Cobalt)'를 공개했다. MS가 자체 개발해 처음 선보인 칩 시리즈로, 명칭은 '100'부터 시작한다.

먼저 '마이아 100'는 TSMC의 5나노미터 공정 기반으로 1050억개의 트랜지스터가 집적된 AI반도체다. MS는 애저 클라우드 인프라와 워크로드에 맞춰 수직적 통합을 고려해 이를 설계, LLM(대규모언어모델)을 비롯한 AI모델 학습·추론에 최적화했다고 강조했다. 개발·테스트 과정에서 자사가 투자한 오픈AI와 협력했으며, 이 칩을 장착하고 수랭식 냉각시스템까지 맞춤형으로 갖춘 서버랙도 제작했다.

클라우드 네이티브 칩을 표방하는 '코발트 100'은 AWS(아마존웹서비스)의 '그래비톤' 칩과 같이 암(Arm) 아키텍처 기반으로 전력 등 클라우드 인프라 효율성을 높이기 위해 설계된 칩이다. 64비트 128코어 CPU로 현재까지 CSP(클라우드서비스제공사)가 개발한 칩 가운데 가장 빠르다는 게 MS의 설명이다. '마이아'와 '코발트' 모두 내년부터 본격적으로 애저 데이터센터에 적용될 예정이다.

MS의 이번 발표는 GPU(그래픽처리장치) 수급난에 대응하면서 퍼블릭 클라우드 경쟁력도 높이려는 포석으로 풀이된다. 세계적인 생성형AI 열풍으로 AI 워크로드 처리에 쓰이는 GPU가 품귀 현상을 빚고 있다. 특히 인기가 높은 H100·A100 등 엔비디아 GPU(그래픽처리장치) 시스템은 당장 주문해도 후년에나 수령 가능한 것으로 전해진다.

급증하는 생성형 AI 수요에 대해 글로벌 CSP들은 자체 개발 칩으로 인프라 경쟁력을 높이고 있다.

클라우드 시장 선두주자인 AWS도 지난해 AI모델 학습을 위한 AI반도체 '트레이니움'을 출시했고, 추론에 최적화된 '인퍼런시아2' 칩 기반의 인스턴스도 제공하고 있다. AWS는 이 칩들을 통해 모델 구축 비용이나 에너지 소비 등을 대폭 절감할 수 있는 효율성을 내세우고 있다.

일찍이 TPU(텐서처리장치)를 자체 개발해 활용해온 구글 또한 최근 클라우드 인프라 경쟁력에도 이를 앞세우고 있다. 학습, 미세조정, 추론을 아우르는 다양한 AI워크로드에 맞게 경제적으로 확장되도록 설계된 점을 강조한다. 국내에서는 엔씨소프트가 이를 기반으로 자사 '바르코 LLM'을 개발하고 학습 환경을 구축했는데, GPU 대비 달러당 2배 가까이 높은 성능을 냈다는 게 구글클라우드의 설명이다.

하지만 이들의 행보가 당장 엔비디아의 입지에 실질적인 영향을 주진 않을 것으로 보인다. 엔비디아가 시장을 장악한 배경에는 GPU 자체 성능뿐 아니라 이 회사가 구축해온 쿠다(CUDA) SW(소프트웨어) 개발 생태계도 크게 작용했다. 딥러닝 작업을 수행하는 개발자들이 10년 이상 관련 툴과 라이브러리를 이를 기반으로 구축·공유해 오면서 종속성이 생겼기 때문이다.

CSP들의 AI칩 자체개발은 현재로선 엔비디아와의 경쟁이 그 목적이라기보다는, 다양한 AI워크로드에 대응하고 고객 선택권을 넓히면서 더 많은 생성형AI 수요를 자사 클라우드로 흡수하기 위한 전략적 선택으로 해석된다. 이날 MS도 AMD 인스팅트 MI300X GPU가 탑재되는 AMD MI300X VM(가상머신) 추가, 엔비디아 H200 텐서 코어 GPU가 탑재된 VM인 ND H200 v5 시리즈 출시 계획 등 발표를 병행했다.

국내에서는 통신사들의 행보가 활발하다. SK텔레콤의 AI반도체 자회사 사피온은 최근 데이터센터용 AI반도체(NPU) 'X330'을 공개했다. X330은 사피온이 2020년 내놓은 국내 첫 데이터센터용 AI반도체 'X220'에 비해 성능은 4배, 전력 효율은 2배 높다. 올해 나온 엔비디아 동급 GPU보다도 연산 성능이 약 2배, 전력 효율은 1.3배 높다.

사피온뿐 아니라 퓨리오사AI, 리벨리온, 딥엑스 같은 국내 기업들이 NPU를 경쟁적으로 개발하며 엔비디아의 입지에 도전하고 있다. SKT, KT, 네이버, 카카오 등이 이들 반도체의 고객이다. 퓨리오사AI는 카카오엔터프라이즈, 리벨리온은 KT와 협력하고 있다.

유영상 SK텔레콤 사장은 16일 열린 연례 개발자 회의 'SK 테크 서밋 2023'에서 "업계에선 2026년까지 전체 기업의 80% 이상이 AI를 활용할 것으로 전망하고, 글로벌 생성형 AI 시장은 10배 성장해 590억달러 규모로 예측된다"며 "누가 빨리 대응하고 기회를 확보하느냐가 중요한 시기이며 10년 뒤 기업 경쟁력은 물론 국가 경쟁력도 지금 대응에 따라 달라질 것"이라며 AI 분야에 대한 투자의지를 강조했다. 팽동현기자 dhp@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?