"내년 AI반도체 탑재량 2배↑…삼성전자·하이닉스 수혜"

김인경 2023. 12. 13. 07:37
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 반도체에 대한 기대가 커지는 가운데, 최대 수혜주가 삼성전자(005930)와 SK하이닉스(000660)가 될 것이란 전망이 나왔다.

김 연구원은 "특히 AI 반도체는 클라우드와 온디바이스 AI에서 탑재량이 2배 증가될 전망인데 이는 현재 클라우드 GPU에는 4개의 HBM이 사용되지만 내년부터 HBM 탑재량은 8개로 늘어나고, 온디바이스 AI (스마트 폰, PC 등)도 향후 디램과 낸드 탑재량이 현재 대비 2배 이상 증가해 메모리 콘텐츠가 급속히 늘어날 것으로 추정되기 때문"이라고 강조했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

KB증권 보고서

[이데일리 김인경 기자] 인공지능(AI) 반도체에 대한 기대가 커지는 가운데, 최대 수혜주가 삼성전자(005930)와 SK하이닉스(000660)가 될 것이란 전망이 나왔다.

13일 김동원 KB증권 연구원은 “향후 AI는 클라우드 (Cloud), 온디바이스 (On-device)로 확장되는 가운데 대용량 고성능 AI 컴퓨팅이 가능한 클라우드와 에너지 효율이 높은 디바이스를 오가며 사용자들이 원하는 AI 데이터를 적재적소에 처리하게 되는 시장으로 진화될 것”이라며 이같이 밝혔다.

내년 AI 서버 출하량은 168만대로 올해 (122만대) 대비 38% 증가할 것으로 전망된다. 시장조사기관 트렌드포스에 따르면 전체 서버에서 차지하는 AI 서버 비중도 올해 9%에서 내년 12%까지 확대할 전망이다.

김 연구원은 “이에 따라 2027년까지 AI 서버 출하 성장률은 연평균 36%로 일반 서버 성장률(10%) 3배 이상 상회할 것”이라고 전망했다.

현재 북미 클라우드(CSP) 업체인 아마존웹서비스(AWS), 구글, 마이크로소프트, 메타 등은 엔비디아 및 AMD 그래픽처리장치(GPU) 탑재 뿐 아니라 독자 개발한 AI 칩 (ASIC)까지 영역을 확대하며 학습(Training)에서 추론(Inference) 분야까지 AI 서비스를 확장하고 있다.

그는 “특히 추론용 AI 반도체 솔루션도 단순 로직에서 복합 분야로 진화하며 신경망처리장치(NPU·Neural Processing Unit)를 중심으로 4개의 고대역폭메모리(HBM)가 탑재될 전망”이라고 내다봤다.

현재 AI 시장의 주요 제품인 엔비디아 H100에는 4개의 HBM이 사용되지만, 내년 출시될 엔비디아 H200, B100 및 AMD의 MI300에는 각각 6개, 8개 HBM이 탑재되고 판가(ASP)도 상승할 것으로 추정된다는 얘기다.

그는 “이에 2024년 삼성전자, SK하이닉스의 HBM은 가격(P)과 출하(Q)가 동시에 상승할 것”이라며 “내년 AI 반도체 탑재량 2배 증가, AI 최대 수혜주는 삼성전자, SK하이닉스가 될 것”이라고 기대했다.

김 연구원은 “특히 AI 반도체는 클라우드와 온디바이스 AI에서 탑재량이 2배 증가될 전망인데 이는 현재 클라우드 GPU에는 4개의 HBM이 사용되지만 내년부터 HBM 탑재량은 8개로 늘어나고, 온디바이스 AI (스마트 폰, PC 등)도 향후 디램과 낸드 탑재량이 현재 대비 2배 이상 증가해 메모리 콘텐츠가 급속히 늘어날 것으로 추정되기 때문”이라고 강조했다.

아울러 그는 “따라서 삼성전자, SK하이닉스가 AI 최대 수혜주로 판단된다”고 덧붙였다.

김인경 (5tool@edaily.co.kr)

Copyright © 이데일리. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?