HBM 다음 전쟁터?…'LPDDR6'가 뭐길래
저전력 AI 메모리 경쟁 본격화
온디바이스 AI 확산에 수요 급증
스마트폰·로봇·AI 서버로 확장

스마트폰이나 로봇이 똑똑해질수록 그 안에서 AI를 움직이는 메모리의 역할도 커집니다. 이 메모리 경쟁이 다시 속도를 내고 있습니다. SK하이닉스가 차세대 모바일 메모리인 LPDDR6 D램을 세계 최초로 개발, 온디바이스 AI 시대에 맞춘 새로운 시장 선점에 나섰습니다.
AI 반도체 경쟁은 그간 HBM(고대역폭메모리)을 중심으로 펼쳐졌습니다. 하지만 최근에는 스마트폰과 로봇, AI 서버까지 연결되는 '저전력 메모리' 경쟁이 새로운 흐름으로 떠오르는 분위기입니다.
속도·전력 동시에 잡은 'LPDDR6'

LPDDR(Low Power Double Data Rate)은 스마트폰과 태블릿에 들어가는 모바일용 D램 규격입니다. 이름 그대로 '낮은 전력(Low Power)'으로 데이터를 빠르게 처리하도록 설계된 메모리죠.
스마트폰은 배터리로 작동하기 때문에 서버처럼 많은 전력을 사용할 수 없습니다. 그래서 성능은 유지하면서도 전력 소비를 최대한 줄이는 메모리가 필요한데요. LPDDR은 이러한 모바일 환경에 맞춰 개발된 D램입니다.
이 규격도 세대를 거치며 꾸준히 진화해 왔습니다. LPDDR에서 시작해 LPDDR2와 LPDDR3, LPDDR4로 이어졌고 최근에는 LPDDR5와 LPDDR5X가 상용화됐습니다. 이제 업계 경쟁은 차세대 규격인 LPDDR6로 옮겨가고 있고요.
SK하이닉스는 10나노급 6세대(1c) 공정을 적용한 16Gb LPDDR6 D램 개발 인증을 세계 최초로 완료했습니다. 지난 1월 CES 2026에서 처음 공개된 이후 약 두 달 만에 개발 인증까지 마친 겁니다. 회사는 상반기 안에 양산 준비를 마치고 하반기부터 제품을 공급할 계획입니다.
이번 제품은 성능과 전력 효율을 동시에 끌어올린 것이 특징입니다. 데이터 처리 속도는 이전 세대인 LPDDR5X보다 약 33% 빨라졌고, 기본 동작 속도도 초당 10.7기가비트(Gbps) 이상으로 기존 최고 수준을 넘어섰습니다.
전력 효율도 크게 개선됐습니다. 칩의 동작 상황에 따라 전압과 주파수를 조절하는 DVFS 기술과 필요한 데이터 경로만 선택적으로 작동하는 서브 채널 구조를 적용, 전력 소비를 20% 이상 줄였죠.
쉽게 말해 게임이나 AI 작업처럼 높은 성능이 필요한 상황에서는 속도를 끌어올리고 평소에는 전력을 낮춰 배터리 사용 시간을 늘리는 방식입니다.
AI 시대 '메모리 구조' 바뀐다
LPDDR6가 주목받는 이유는 '온디바이스 AI' 확산과 맞물려 있기 때문입니다. 온디바이스 AI는 데이터를 서버로 보내 처리하는 대신 스마트폰이나 기기 안에서 AI 연산을 수행하는 기술입니다. 실시간 번역이나 AI 사진 편집, 음성 비서 등 기능이 클라우드를 거치지 않고 기기 내부에서 바로 작동하죠.
이렇게 되면 응답 속도가 빨라지고 개인정보 보호 측면에서도 장점이 있습니다. 대신 기기 안에서 처리해야 할 데이터가 크게 늘어나기 때문에 빠르면서도 전력 소모가 적은 메모리가 중요해집니다. LPDDR 같은 저전력 메모리가 주목받는 까닭입니다.
LPDDR의 활용 범위도 빠르게 넓어지고 있습니다. 과거엔 스마트폰과 태블릿 같은 모바일 기기 중심 메모리였지만 최근에는 AI 데이터센터와 자율주행차, 휴머노이드 로봇 등 분야에서도 사용이 늘고 있어요. 특히 엔비디아가 AI 가속기 플랫폼에서 CPU 메모리로 LPDDR을 채택하면서 시장의 관심이 더욱 커졌죠.
AI 서버를 간단히 보면 역할에 따라 메모리가 나뉩니다. AI 연산을 담당하는 GPU에는 초고속 메모리인 HBM이 붙고, 전체 시스템을 제어하는 CPU에는 전력 효율이 높은 LPDDR이 사용됩니다. AI 데이터센터가 늘어날수록 이런 구조의 서버도 함께 늘어나기 때문에 LPDDR 수요 역시 자연스럽게 확대될 가능성이 큽니다.
결국 D램 시장의 구조도 점차 달라질 것으로 보입니다. 지금까지는 PC와 서버에 들어가는 범용 D램이 시장의 대부분을 차지해 왔지만 AI 시대에는 메모리 수요의 중심이 다른 방향으로 이동할 가능성이 크다는 분석인데요.
업계 일각선 HBM이 전체 D램 시장의 약 30% 정도를 차지하고 LPDDR이 약 40% 수준으로 확대될 수 있다는 전망도 나옵니다. 반면 PC와 기존 서버에 쓰이던 일반 D램은 약 30% 수준으로 비중이 줄어들 수 있다는 관측입니다.
SK하이닉스 관계자는 "앞으로도 고객과 함께 AI 메모리 솔루션을 시장에 적시 공급해 온디바이스 AI 사용자들에게 차별화된 가치를 제공할 것"이라고 강조했습니다.

[테크따라잡기]는 한 주간 산업계 뉴스 속에 숨어 있는 기술을 쉽게 풀어드리는 비즈워치 산업부의 주말 뉴스 코너입니다. 빠르게 변하는 기술, 빠르게 잡아 드리겠습니다. [편집자]
강민경 (klk707@bizwatch.co.kr)
ⓒ비즈니스워치의 소중한 저작물입니다. 무단전재와 재배포를 금합니다.
Copyright © 비즈워치. 무단전재 및 재배포 금지.
- 고령 운전자 택시에 서울시 '이것' 달아준다
- [단독]스텔란티스, 현대모비스에 美배터리시스템 설비 매각 제안
- [단독]SK이노베이션, 하이닉스 AI컴퍼니에 5천억대 투자
- 잠실야구장 3만석 돔구장으로…한화 컨소 3.3조 투자
- 가상자산 2단계법 또 표류…당정협의 난항
- HBM4·HBF 경쟁 격화…AI 메모리 전쟁에 '중동 변수' 중첩
- 삼성전자·SK, 역대급 자사주 소각 랠리…주주환원 승부수
- [단독]구글에 낸 인앱결제 수수료 돌려받는다
- '여러 업권 참여' 스테이블코인 임박…금감원, 감독은 어떻게 할까
- 삼성보다 SK하이닉스가 'AI 거품' 대비해야 하는 이유