"내 삼전·닉스 갑자기 왜 떨어진 거야?" 구글이 쏘아올린 작은 공[AI 아틀라스]

김성환 2026. 3. 29. 10:01
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"메모리 6분의 1로 줄여도 AI 잘 쓴다" 22장짜리 논문 '터보퀀트',
메모리를 압축 저장한 후 풀어 쓰는 알고리즘 공개
최대 6분의 1까지 압축한 후 풀어써도 왜곡 최소화
삼전닉스, 마이크론 등 지난주 직격탄 맞았지만
오히려 메모리 수요 더 늘어날 수 있다는 주장도
지난 27일 오후 서울 중구 하나은행 딜링룸 전광판에 종가가 표시되어 있다. 사진=뉴시스
견조한 상상세를 보일것 같았던 반도체 주식 황금기에 균열이 생겼다. 구글이 작지만 큰 폭탄을 날렸다. 이 폭탄 한방에 지난주 삼성전자와 SK하이닉스 등 국내 반도체 대장주들이 맥없이 무너졌고, 미 증시의 메모리 관련주들도 줄폭락을 면치 못했다. 시장을 뒤흔든 주범은 하드웨어가 아닌 구글이 발표한 22장 짜리 논문 '터보퀀트(TurboQuant)'다.
AI 아틀라스
"LLM쓸때 필요한 메모리를 최대 6분의 1로 줄인다"
구글이 지난 주에 발표한 논문의 제목은 'TURBOQUANT: ONLINE VECTOR QUANTIZATION WITH NEAR-OPTIMAL DISTORTION RATE'다. 한글로 직역하면 '터보퀀트: 거의 최적의 왜곡률을 달성하는 온라인 벡터 양자화'가 된다. 복잡한 수학적 증명을 걷어내고 한 마디로 풀어내자면 논문이 말하는 내용은 이거다. "LLM 같은 AI를 쓸때 필요한 메모리를 최대 6분의 1로 줄이는 방법을 수학적으로 증명했다." 더 쉽게 말하면 LLM을 사용할때 데이터를 적당한 수준으로 압축하고, 나중에 그걸 다시 풀어 써도 정확도가 떨어지지 않는다는 얘기다. 현재 쓰이는 LLM도 한 창에서 대화를 길게 나누다 보면 메모리를 아끼기 위해 스스로 압축하는 과정이 나온다. 구글이 논문으로 발표한 이 터보퀸트는 현재 기술보다 더 고효율로 압축하면서도 정확도는 크게 떨어지지 않는 기술이라는 말이다.
구글 로고. 사진=뉴시스 AP 외신화상
"메모리 적게 써도 되겠네?"
그래픽처리장치(GPU)만큼 고대역폭메모리(HBM)가 중요한 AI 하드웨어 시장에서 이 논문 발표는 즉각적으로 시장에 영향을 미쳤다. 그간 AI 열풍의 핵심 논리는 "AI 성능을 높이려면 더 많은 HBM(고대역폭메모리)과 DRAM을 물리적으로 때려 박아야 한다"는 하드웨어 중심의 '물량 공세'였다. 하지만 구글이 소프트웨어만으로 메모리 효율을 6배 높일 수 있음을 증명하자, 시장은 즉각 반대로 반응했다. "반도체를 덜 써도 AI가 잘 돌아간다면, 삼성과 하이닉스가 쌓아온 HBM 성벽이 무너지는 것 아니냐"는 의구심이 터져 나온 것이다.
구글 리서지가 발표한 터보퀀트 논문 첫 페이지. 4명의 저자 중에는 딥마인드 출신도 포함돼 있다. 사실상 구글은 제미나이 LLM과 딥마인드의 AI 서비스 등 곳곳에 터보퀀트 기술을 바로 적용해 실증에 들어갈 가능성이 높다.

반도체, 스토리지 주식에 직격탄
구글 논문 발표 직후 시장의 반응은 처참했다. 미국 시장에서는 메모리 3대장 중 하나인 마이크론(MU)이 3.4% 하락한 것을 시작으로, 저장장치 전문 기업인 샌디스크(SNDK)와 웨스턴 디지털(WDC)은 각각 11%와 7%대 폭락세를 기록했다. AI 덕분에 상승세를 구가하던 삼성전자와 SK하이닉스 역시 타격을 받았다. 지난 26일, 코스피 대장주 삼성전자는 4.71% 하락하며 18만 원 선을 위협받았고, HBM 비중이 높은 SK하이닉스는 6.23% 급락하며 투자자들에게 충격을 안겼다. 반도체 소부장(소재·부품·장비) 종목들 역시 업황 둔화 우려에 직면하며 동반 하락했다.
삼성전자의 HBM4. 사진=연합뉴스
'제번스의 역설', 이번에도 통할까
시장에선 여러가지 갑론을박이 벌어지고 있다. 구글의 터보퀀트 논문이 수학적 검증 수준에 불과하다는 주장과 함께, 메모리를 적게 쓰는 기술이 발전할 수록 오히려 메모리 수요가 더 폭증할 것이라는 주장도 나오고 있다.

우선 구글의 논문이 검증 수준에 불과하다는 주장은 신중하게 바라볼 필요가 있다. 오픈AI의 챗GPT가 과거 '어텐션' 관련 논문에서 영향을 받았듯, 이 터보퀀트 논문도 근시일 내에 AI업계에 적용될 가능성이 매우 높기 때문이다. 지속적으로 AI 하드웨어를 업그레이드 해야 하는 AI업계에선 이번 기술을 최대한 빨리 적용해야 할 니즈가 충분하다.

제번스의 역설을 챗GPT로 제작한 삽화 이미지.

장기적으로 메모리 수요가 폭발할 것이라는 주장도 주목할 필요가 있다. 경제학에서 주로 쓰이는 '제번스의 역설(Jevons' Paradox)'이다. 자원 이용의 효율성이 높아지면 오히려 그 자원의 전체 소비량이 늘어나는 원리를 설명한 것이 바로 제번스의 역설이다. 제번스는 석탄 사용의 효율성을 높이는 기술이 발전했지만, 광범위한 산업에서 석탄 소비가 증가했다는 사실을 관찰했다. 당시 그는 연료 소비를 줄이기 위해 기술 진보에 의존해서는 안된다고 주장했다.

이를 AI 메모리에 대입하면, 터보퀀트로 인해 AI 운영 비용이 낮아질수록 기업들은 더 많은 AI 서비스를 출시하게 되고, 이는 결국 더 거대한 메모리 수요로 이어진다는 논리다. 결국, 개별 기기당 메모리 채택량은 효율화될지 몰라도, AI가 적용되는 기기의 수가 기하급수적으로 늘어나면서 전체 반도체 시장의 파이는 이전보다 훨씬 커질 것이라는 분석이다.

ksh@fnnews.com 김성환 기자

Copyright © 파이낸셜뉴스. 무단전재 및 재배포 금지.