오픈AI, 브로드컴 손잡고 'AI 칩' 직접설계…엔비디아 독점 균열
구글·아마존·MS도 자체 칩 개발 가속…다극체제 전환여부 촉각

(서울=뉴스1) 김민석 기자 = 오픈AI가 브로드컴과 손잡고 인공지능(AI) 인프라 맞춤형 칩 개발에 나서면서 엔비디아가 구축한 AI 칩 독점 생태계에 균열이 생길지 관심이 쏠린다.
오픈AI는 최근 3주간 엔비디아(10GW)·AMD(6GW)·브로드컴(10GW) 등과 총 26기가와트(GW) 규모 계약을 잇따라 맺으며 칩 생태계 전망을 흔들고 있다.
19일 IT 업계에 따르면 오픈AI는 직접 설계한 AI 칩을 브로드컴을 통해 개발·생산하는 계약을 맺었다. 양사는 2026년 하반기부터 해당 장비를 탑재한 서버랙을 설치하고 10기가와트(GW) 규모 AI 데이터센터 용량을 추가로 확보할 계획이다. 구축 완료 시점은 2029년 말이다.
업계는 오픈AI가 엔비디아의 GPU 의존에서 벗어나기 위해 자체 설계 칩 개발에 나선 점을 주목하고 있다.
오픈AI의 맞춤형 AI 칩 개발엔 소프트뱅크 자회사 ARM도 참여한다. 디인포메이션에 따르면 ARM은 맞춤형 AI 가속기를 보완할 서버급 CPU를 설계·개발한다. 추론 워크로드에 특화한 설계를 적용 한 칩 생산은 TSMC가 3나노미터 공정으로 맡는다.
샘 올트먼 오픈AI CEO는 "자체 개발 칩과 시스템을 설계해 프론티어 모델과 제품 개발에서 배운 것을 하드웨어에 직접 구현하고자 한다"며 "(이 시도는) 새로운 수준의 칩 성능과 지능을 구현할 것"이라고 말했다.
오픈AI의 이같은 행보는 엔비디아 의존도를 낮추려는 움직임이라는 분석이다.
현재 엔비디아는 전체 AI 데이터센터 GPU 시장의 80%~90%를 장악하고 있다.

구글·아마존·마이크로소프트(MS) 등 빅테크도 자체 AI 칩(가속기) 개발·공급을 가속하며 다극 체제로의 전환을 시도하고 있다.
구글은 자체 개발한 TPU를 외부 플랫폼·클라우드 기업들에 공급하기 시작했고 아마존은 AI 훈련용 트레이니움과 추론용 인퍼렌시아 칩 생산에 돌입했다. MS도 2023년 11월 AI 가속기 'Azure Maia 100'을 공개한 바 있다.
AI 가속기 및 ASIC는 엔비디아의 범용 GPU 대비 유연성이 떨어지지만, 특정 작업에선 저비용 고효율을 낸다.
다만 맞춤형 AI 칩들이 엔비디아의 시장 지배력을 단기간에 위협하기는 어려울 것이란 분석도 다수 제기되고 있다. 엔비디아 쿠다(CUDA) 소프트웨어 플랫폼과 하드웨어 생태계는 사실상 업계의 표준으로 자리매김한 상태다.

오픈AI는 지난달 엔비디아와 10GW 규모(엔비디아로부터 1000억 달러 투자 유치) GPU 계약을 맺었다. 뉴스트리트리서치는 엔비디아가 오픈AI에 10억 달러 투자 시마다 35억 달러 상당의 GPU 구매(또는 리스) 계약을 맺은 것으로 분석했다.
오픈AI는 뒤이어 AMD와 6GW 규모 GPU 공급 계약(지분 워런트 거래)을 체결했다. 오픈AI는 AMD로부터 6기가 와트 규모 AI 가속기를 공급받는 대신 AMD 보통주를 주당 0.01달러에 매입하는 워런트를 받았다. AMD 주가가 600달러까지 오르면 최대 1억 6000만주를 매수해 AMD 지분 10%를 확보할 수 있는 구조다.
AMD의 차세대 AI 칩 핵심 부품인 HBM4(6세대 고대역폭메모리)를 삼성전자가 주력으로 공급할 것이란 관측도 있다. 삼성전자는 AMD의 AI 가속기 MI350X·MI355X 칩용 HBM3E 12단 제품을 공급하며 공고한 협업 체계를 구축한 상태다. AMD가 오픈AI에 납품할 것으로 예상되는 MI450의 HBM 공급사는 아직 확정되지 않았지만, 삼성전자가 해당 계약을 체결할 것으로 기대되고 있다.
ideaed@news1.kr
<용어설명>
■ TPU
TPU(Tensor Processing Unit·텐서 처리 장치)는 구글이 개발한 AI·딥러닝 연산 특화 맞춤형 반도체(ASIC)다. 이 장치는 주로 신경망(Neural Network) 학습과 추론(Inference) 등 기계학습 작업을 빠르고 효율적으로 처리하도록 설계됐다.
■ ASIC
ASIC(Application-Specific Integrated Circuit·주문형 반도체)은 특정 용도 맞춤으로 제작된 집적 회로를 의미한다. 범용으로 쓰이는 GPU와 달리 특정 기능이나 특정 애플리케이션에 최적화 설계돼 고성능·저전력을 구현한다.
■ AI 가속기
AI 가속기는 인공지능(AI) 딥러닝·머신러닝 연산을 최적화하고 가속하도록 설계된 특수 하드웨어를 말한다. 대표적으로 GPU(그래픽처리장치)·FPGA(현장 프로그래머블 게이트 어레이)·ASIC(특정 용도의 집적회로) 등과 AI 전용 프로세서(MPU·NPU 등)이다.
Copyright © 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
- "티끌 흠집도 NO"…작은 논란도 커 보일 스타 2위 유재석-4위 임영웅, 1위는?
- 야구장에 이런 미녀?…영상 속 점수판 '조인성', 팬들은 알아봤다
- 반려견 돌봄 맡겼더니…집에 온 30대 남성, 여자 속옷 만지고 '끙끙'[영상]
- "시부 다녔던 공기관 강당서 결혼식 하라…소원도 못 들어주냐" 강요 시끌
- "이미 재산분할 6대4 합의, 남편 억대 성과급…이혼 미루면 나눌 수 있나"
- "모수 서울 와인 논란, 최대 피해자는 1층 손님" 세계 1위 와인 유튜버 비난
- 김해준♥김승혜, 부모 된다…"임신 17주차, 열심히 헤쳐나갈 것" [N샷]
- 임하룡, 청담동 100억 빌딩 공개 "뉴스에서도 안 된다고 한 곳…5억에 매입"
- 팀원 결혼식, 단톡방에 직원들 축의금 공개한 회사…"선 넘은 거 아닌가?"
- "'집안 망신' 쫓겨난 막내, 30억 유산 하나도 없다"…형·누나의 '단절' 선언