HBM 다음 전쟁터?…'LPDDR6'가 뭐길래

강민경 2026. 3. 15. 15:02
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[테크따라잡기]
저전력 AI 메모리 경쟁 본격화
온디바이스 AI 확산에 수요 급증
스마트폰·로봇·AI 서버로 확장

스마트폰이나 로봇이 똑똑해질수록 그 안에서 AI를 움직이는 메모리의 역할도 커집니다. 이 메모리 경쟁이 다시 속도를 내고 있습니다. SK하이닉스가 차세대 모바일 메모리인 LPDDR6 D램을 세계 최초로 개발, 온디바이스 AI 시대에 맞춘 새로운 시장 선점에 나섰습니다.

AI 반도체 경쟁은 그간 HBM(고대역폭메모리)을 중심으로 펼쳐졌습니다. 하지만 최근에는 스마트폰과 로봇, AI 서버까지 연결되는 '저전력 메모리' 경쟁이 새로운 흐름으로 떠오르는 분위기입니다.

속도·전력 동시에 잡은 'LPDDR6'

LPDDR(Low Power Double Data Rate)은 스마트폰과 태블릿에 들어가는 모바일용 D램 규격입니다. 이름 그대로 '낮은 전력(Low Power)'으로 데이터를 빠르게 처리하도록 설계된 메모리죠.

스마트폰은 배터리로 작동하기 때문에 서버처럼 많은 전력을 사용할 수 없습니다. 그래서 성능은 유지하면서도 전력 소비를 최대한 줄이는 메모리가 필요한데요. LPDDR은 이러한 모바일 환경에 맞춰 개발된 D램입니다.

이 규격도 세대를 거치며 꾸준히 진화해 왔습니다. LPDDR에서 시작해 LPDDR2와 LPDDR3, LPDDR4로 이어졌고 최근에는 LPDDR5와 LPDDR5X가 상용화됐습니다. 이제 업계 경쟁은 차세대 규격인 LPDDR6로 옮겨가고 있고요.

SK하이닉스는 10나노급 6세대(1c) 공정을 적용한 16Gb LPDDR6 D램 개발 인증을 세계 최초로 완료했습니다. 지난 1월 CES 2026에서 처음 공개된 이후 약 두 달 만에 개발 인증까지 마친 겁니다. 회사는 상반기 안에 양산 준비를 마치고 하반기부터 제품을 공급할 계획입니다.

이번 제품은 성능과 전력 효율을 동시에 끌어올린 것이 특징입니다. 데이터 처리 속도는 이전 세대인 LPDDR5X보다 약 33% 빨라졌고, 기본 동작 속도도 초당 10.7기가비트(Gbps) 이상으로 기존 최고 수준을 넘어섰습니다.

전력 효율도 크게 개선됐습니다. 칩의 동작 상황에 따라 전압과 주파수를 조절하는 DVFS 기술과 필요한 데이터 경로만 선택적으로 작동하는 서브 채널 구조를 적용, 전력 소비를 20% 이상 줄였죠.

쉽게 말해 게임이나 AI 작업처럼 높은 성능이 필요한 상황에서는 속도를 끌어올리고 평소에는 전력을 낮춰 배터리 사용 시간을 늘리는 방식입니다.

AI 시대 '메모리 구조' 바뀐다

LPDDR6가 주목받는 이유는 '온디바이스 AI' 확산과 맞물려 있기 때문입니다. 온디바이스 AI는 데이터를 서버로 보내 처리하는 대신 스마트폰이나 기기 안에서 AI 연산을 수행하는 기술입니다. 실시간 번역이나 AI 사진 편집, 음성 비서 등 기능이 클라우드를 거치지 않고 기기 내부에서 바로 작동하죠.

이렇게 되면 응답 속도가 빨라지고 개인정보 보호 측면에서도 장점이 있습니다. 대신 기기 안에서 처리해야 할 데이터가 크게 늘어나기 때문에 빠르면서도 전력 소모가 적은 메모리가 중요해집니다. LPDDR 같은 저전력 메모리가 주목받는 까닭입니다.

LPDDR의 활용 범위도 빠르게 넓어지고 있습니다. 과거엔 스마트폰과 태블릿 같은 모바일 기기 중심 메모리였지만 최근에는 AI 데이터센터와 자율주행차, 휴머노이드 로봇 등 분야에서도 사용이 늘고 있어요. 특히 엔비디아가 AI 가속기 플랫폼에서 CPU 메모리로 LPDDR을 채택하면서 시장의 관심이 더욱 커졌죠.

AI 서버를 간단히 보면 역할에 따라 메모리가 나뉩니다. AI 연산을 담당하는 GPU에는 초고속 메모리인 HBM이 붙고, 전체 시스템을 제어하는 CPU에는 전력 효율이 높은 LPDDR이 사용됩니다. AI 데이터센터가 늘어날수록 이런 구조의 서버도 함께 늘어나기 때문에 LPDDR 수요 역시 자연스럽게 확대될 가능성이 큽니다.

결국 D램 시장의 구조도 점차 달라질 것으로 보입니다. 지금까지는 PC와 서버에 들어가는 범용 D램이 시장의 대부분을 차지해 왔지만 AI 시대에는 메모리 수요의 중심이 다른 방향으로 이동할 가능성이 크다는 분석인데요.

업계 일각선 HBM이 전체 D램 시장의 약 30% 정도를 차지하고 LPDDR이 약 40% 수준으로 확대될 수 있다는 전망도 나옵니다. 반면 PC와 기존 서버에 쓰이던 일반 D램은 약 30% 수준으로 비중이 줄어들 수 있다는 관측입니다.

SK하이닉스 관계자는 "앞으로도 고객과 함께 AI 메모리 솔루션을 시장에 적시 공급해 온디바이스 AI 사용자들에게 차별화된 가치를 제공할 것"이라고 강조했습니다.

SK하이닉스 연간 실적 추이./그래프=비즈워치
[테크따라잡기]는 한 주간 산업계 뉴스 속에 숨어 있는 기술을 쉽게 풀어드리는 비즈워치 산업부의 주말 뉴스 코너입니다. 빠르게 변하는 기술, 빠르게 잡아 드리겠습니다. [편집자]

강민경 (klk707@bizwatch.co.kr)

ⓒ비즈니스워치의 소중한 저작물입니다. 무단전재와 재배포를 금합니다.

Copyright © 비즈워치. 무단전재 및 재배포 금지.