AI발 호재…반도체 영향, 어느 정도?[반도체 랠리 온다③]

이인준 기자 2024. 1. 27. 09:02
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[서울=뉴시스]SK하이닉스는 HBM3E의 성능 검증 절차를 진행하기 위해 고객사에 샘플을 공급하기 시작했다고 21일 밝혔다. SK하이닉스는 내년 상반기부터 HBM3E 양산에 들어갈 계획이다. (사진=SK하이닉스 제공) photo@newsis.com *재판매 및 DB 금지

[서울=뉴시스]이인준 기자 = "새로운 시대는 이제 막 시작됐다. AI(인공지능)가 우리를 어디로 이끌든, 그 힘을 강화하기 위해 최선을 다하고 있다."(경계현 삼성전자 대표이사 사장)

메모리 시장이 사상 초유의 불황기를 가까스로 빠져나온 가운데, 이제 반도체 시장은 생성형 AI 시대가 본격 도래하며 새로운 변화에 직면했다.

반도체는 과거 '천수답(天水畓·벼농사에 필요한 물을 빗물에만 의존하는 논)' 산업이라고 불렀다. 경기가 좋을 때는 수십조원씩 이익을 내지만, 경기가 한번 꺾이면 수십조원의 적자를 걱정해야 하기 때문이다.

특히 삼성전자와 SK하이닉스는 세계 메모리 산업의 절반 이상을 담당하는 독과점 공급자인데도, 수십조원을 들여 개발한 메모리 제품조차 불황 때는 단 몇 센트에 팔리는 지독한 시장 상황을 견뎌야 했다.

하지만 지난해 본격 개막한 AI 시대로 인해 메모리 업황도 새 국면을 맞고 있다. 특히 불황기에도 실적 버팀목이 될 수 있는 고객 맞춤형 '특수 메모리' 시장이 갈수록 커지고 있다.

HBM 등장, 메모리 업계 화두로 급부상

27일 업계에 따르면 SK하이닉스가 지난해 4분기 '깜짝' 흑자 전환에 성공한 배경 중 하나는 인공지능(AI) 열풍에 기반한 고대역폭메모리(HBM)의 역할이 컸다.

HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 제품으로, AI 반도체에 사용되며 전 세계적인 품귀 현상을 일으켰다.

이에 SK하이닉스의 주력 제품인 HBM3(4세대) 매출은 전년 대비 5배 이상 증가했다. 지난해 4분기 HBM 매출은 1조원을 돌파한 것으로 알려졌다.

SK하이닉스는 현재 엔비디아에 HBM3를 사실상 독점 공급하고 있으며, 올해 상반기에는 HBM3E의 납품도 시작한다. 올해 HBM3와 HBM3E(5세대) 주문 물량도 이미 완판된 상황이다.

SK하이닉스 관계자는 이날 실적 발표회에서 "최근 기업들의 AI 도입과 개인의 AI 수용도 증가로 중장기 HBM 수요는 연평균 60% 성장이 예상된다"며 "AI 상용화와 신규 응용처 확대로 추가 가능성까지 고려하면 성장률은 더 확대될 수 있다"고 말했다.

HBM은 이미 D램 업계의 최대 화두가 됐다.

HBM은 아직 전체 D램 매출에서 차지하는 비중은 15% 수준에 불과하다. 하지만 일반적인 범용의 D램보다 통상 6~7배 이상 더 비싼 고부가가치 제품이다. 특히 세대가 높을수록 더 고가다. 메모리 업계 전반에 침체가 이어지고 있지만 실적 부진을 일부 상쇄하는 역할을 톡톡히 하고 있다.

[서울=뉴시스]삼성전자는 AI 전용 반도체 솔루션인 PIM(Processing-In-Memory) 기술을 고성능 D램인 HBM에 세계 최초로 적용했다. (사진=삼성전자 반도체 뉴스룸) photo@newsis.com *재판매 및 DB 금지

맞춤형 메모리 시장 서막…경쟁 치열할 듯

HBM에서 시작된 고객 맞춤형 특수 메모리 시장은 더욱 성장할 전망이다.

가장 대표적인 것은 CXL(Compute Express Link)다. CXL 인터페이스는 프로세서와 메모리 사이의 고속 및 고용량 연결을 위한 개방형 표준이다. HBM이 한 번에 운반할 수 있는 데이터 처리량인 '대역폭'을 키운 고성능 메모리라면, CXL은 프로세서와 메모리 등 장치를 효율적으로 연결해 더 큰 용량으로 제공하는 기술이다.

특히 메모리 업계가 현재 개발 중인 PIM(프로세싱인메모리), PNM(프로세싱니어메모리) 기술과 접목하면, CPU와 메모리 간 데이터 이동거리를 줄여 성능을 극대화 할 수 있다.

단적으로 삼성전자가 개발 중인 CXL-PNM 기술은 AI 모델의 로딩 속도를 2배, 용량은 최대 4배까지 향상시킨다. CXL는 내년부터 본격적으로 상용화가 추진될 전망이다.

저지연성와이드IO(LLW) D램 기술에도 관심이 쏠린다. 이 제품 역시 프로세서와 메모리 칩 간 속도 불일치로 인한 데이터 병목 현상을 완화하기 위한 제품이다. 데이터 입출력단자(I/O)를 늘려 기존 모바일용 D램 대비 데이터 처리 용량(대역폭)을 높인 기술이다.

삼성전자는 스마트폰에 주로 사용되는 저전력(LP) D램보다 전력 효율이 70% 개선된 'LLW(저지연 광대역) D램'을 올해 출시할 예정이다. 향후 삼성전자는 스마트워치, 무선 이어폰, 노트북 등 갤럭시 전 제품에 온디바이스 AI를 적용할 것으로 보인다. SK하이닉스도 스마트폰과 XR(확장현실 기기)에 탑재되는 LLW D램을 중심으로 맞춤형 메모리를 개발한다.

업계 관계자는 "메모리 반도체는 그동안 범용 제품 시장으로만 인식됐는데 AI 시대에는 고객별 차별화된(Customized) 스페셜티(Specialty) 제품에 적응한 반도체 회사만 살아남을 것"이라고 말했다.

☞공감언론 뉴시스 ijoinon@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?