애플, 엔비디아 대신 구글 선택…AI 반도체 지각변동 전조짐?

이인준 기자 2024. 8. 2. 08:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

애플이 AI(인공지능) 모델 학습에 엔비디아의 그래픽처리장치(GPU)가 아닌 구글이 설계한 '텐서 처리 장치(Tensor Processing Unit·TPU)'를 택한 것으로 드러났다.

현재 빅테크(기술 대기업)이 고민에 빠진 AI 사업의 낮은 수익성과 엔비디아 GPU 및 HBM(고대역폭메모리)의 비싼 가격이 구글을 택한 주 원인으로 꼽힌다.

TPU는 구글의 맞춤형 AI 전용 프로세서로, 애플은 엔비디아 GPU의 대안으로 이 TPU를 선택한 것으로 보인다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

애플 시작으로, 빅테크 '탈 엔비디아' 가속화 전망 나와
'AI 반도체용 메모리' HBM 주도권 흔들릴지도 주목
[쿠퍼티노=AP/뉴시스] 팀 쿡 애플 최고경영자(CEO)가 10일(현지시각) 미 캘리포니아주 쿠퍼티노의 애플파크에서 열린 세계개발자회의(WWDC24)에서 참석자들에게 인사하고 있다. 애플은 이 행사에서 iOS18을 비롯한 새로운 운영체제(OS) 업데이트에 대해 발표했다. iOS18에는 애플의 첫 AI(인공지능) 시스템인 '애플 인텔리전스' 도입과 함께 다양한 사용자 기능이 추가됐다. 2024.06.11.

[서울=뉴시스]이인준 기자 = 애플이 AI(인공지능) 모델 학습에 엔비디아의 그래픽처리장치(GPU)가 아닌 구글이 설계한 '텐서 처리 장치(Tensor Processing Unit·TPU)'를 택한 것으로 드러났다.

현재 빅테크(기술 대기업)이 고민에 빠진 AI 사업의 낮은 수익성과 엔비디아 GPU 및 HBM(고대역폭메모리)의 비싼 가격이 구글을 택한 주 원인으로 꼽힌다.

애플의 이번 선택이 향후 AI 반도체 시장에 어떤 변화를 일으키느냐도 주목거리다.

2일 업계에 따르면 애플은 최근 공개한 논문 '애플 인텔리전스 파운데이션 언어 모델(AFM)'에서 향후 AFM 학습에 2015년부터 구글이 자체 설계해 온 AI 반도체 TPU를 사용한다고 공식 언급했다.

TPU는 구글의 맞춤형 AI 전용 프로세서로, 애플은 엔비디아 GPU의 대안으로 이 TPU를 선택한 것으로 보인다.

애플이 이 TPU를 택한 이유는 GPU의 엄청나게 비싼 가격 때문이다.

엔비디아 GPU는 현재 개당 최대 4만달러(5000만원)을 호가한다. 시간당 사용료도 국내에서 1만7000원을 넘는다. 반면 클라우드 형태로 제공하는 구글의 최신 TPU는 시간당 사용료가 2달러 미만인 것으로 알려졌다.

최근 빅테크들은 불어나는 AI 투자 비용에 회의적인 입장으로 돌아서고 있다.

미국의 벤쳐 캐피탈 업체인 세쿼이아(Sequoia)에 따르면 현재까지 AI 부문에 투자된 금액이 6000억달러라는 천문학적 금액인 반면, AI 매출은 단돈 40억달러에 불과하다.

좀 더 나아가 이번 애플의 선택은 AI 반도체 시장에 일어날 변화의 시작이라는 평가도 있다.

메모리 업계는 벌써부터 HBM이 확보한 AI용 메모리 시장 지위에 어떤 변화가 생길 지 관심을 갖는다. HBM은 서버용 D램보다 5배 이상 비싸, GPU의 높은 가격에 한몫 하고 있다.

이에 최근 텐스토렌토가 사양을 공개한 AI 가속기에는 HBM 대신 그래픽 D램(GDDR)을 적용했다. 네이버와 삼성전자가 공동 개발 중인 '마하'는 저전력 D램인 'LPDDR'을 탑재했다.

업계에서는 다만 구글 TPU가 HBM을 완벽하게 대체하기는 쉽지 않을 것이라고 본다.

구글의 TPU 역시 메모리로 HBM을 사용한다. 최근 출시된 6세대 TPU는 전작 대비 메모리 용량과 대역폭이 2배로 확장돼 더 많은 HBM이 쓰인다.

업계 관계자는 "현재 AI 학습에서 고성능 연산을 수행하기 위한 메모리로 아직 HBM 만한 것이 없다"며 "당분간 HBM이 AI 반도체 시장의 70~80%를 차지하는 상황이 지속될 것이다"고 밝혔다.

다만 "추론 시장이 커질수록 GPU 대체재는 더 많이 나올 수밖에 없다"며 "HBM 파이가 더 커지는 데 한계가 있을 것"이라고 덧붙였다.

업계에 따르면 올해 HBM을 메모리로 사용하는 AI 가속기 생산량은 최대 932만개(엔비디아 473만개 포함)으로 추정된다. 이를 반영한 HBM의 올해 최대 수요량은 8억8000만GB(기가바이트)다.

이는 올해 HBM 반도체 3사의 생산 계획(13억8000만GB) 대비 크게 낮은 것으로 공급 과잉 우려가 제기되는 상황이다.

☞공감언론 뉴시스 ijoinon@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?