삼전닉스 주가 박살낸 ‘터보퀀트’…30대 KAIST 교수가 만들었다

김제림 기자(jaelim@mk.co.kr) 2026. 3. 27. 16:30
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

딥시크급 충격의 구글 터보퀀트
메모리 수요 최대 6배까지 절약
10학번 한인수 교수가 개발참여
메모리 공급부족 해소 가능성에
삼전닉스 등 반도체株 주가 충격
한교수 “AI 효율화 핵심기술 기대”
한인수 카이스트 교수
메모리 수요를 최대 6배 가량 절약할 수 있어 ‘딥시크급 쇼크’로 평가받는 구글의 터보퀀트 알고리즘 개발엔 한인수 카이스트 전기및전자공학부 교수가 참여했다. 터보퀀트는 메모리 쇼티지를 해결할 수 있다는 평가를 받으며 삼성전자, SK하이닉스를 비롯한 전세계 반도체 주가에 큰 타격을 줬다. SK하이닉스는 터보퀀트 공개 후 이틀간 주가가 7.3% 하락했다.

한 교수는 2010년 카이스트 학사 과정에 입학한 후 2021년 카이스트 박사학위를 마쳤다. 2024년 9월부터 카이스트 조교수로 임용돼 작년 7월부터 구글 리서치 방문 연구원으로 활동 중이다.

27일 카이스트는 전기및전자공학부의 한인수 교수가 참여한 구글 리서치(Google Research), 딥마인드(DeepMind), 뉴욕대(New York University) 공동 연구팀이 인공지능(AI) 모델의 고질적인 한계로 꼽혀온 메모리 과부하 문제를 해결할 차세대 양자화 알고리즘 터보퀀트를 공개했다고 밝혔다. 카이스트는 “국제 공동연구팀이 최대 6배까지 메모리를 줄이면서도 성능은 유지하는 차세대 알고리즘을 공개하며, AI 산업은 물론 반도체 수요 구조까지 바꿀 기술적 전환점을 제시했다”면서 “고용량 중심에서 고효율 중심으로 전환되면서, AI는 더 저렴해지고 빠르게 확산되는 동시에 반도체 수요 역시 질적으로 고도화될 전망이다”고 밝혔다.

매튜 프린스 클라우드플레어 최고경영자(CEO)는 자신의 X에서 “이것은 구글의 딥시크”라며 “속도, 메모리 사용량, 전력 소비, 활용도 측면에서 AI 추론 성능을 최적화할 여지가 훨씬 크다”고 극찬하기도 했다.

AI 모델은 고정밀(high-precision) 데이터를 사용하기 때문에 막대한 메모리 자원이 필요한 점이 주요 한계로 지적돼 왔다. 터보퀀트는 이러한 고정밀 데이터를 더 적은 비트로 압축해 표현하는 ‘양자화(quantization)’ 기술을 활용한다. 쉽게 말해, 소수점 데이터를 정수로 근사하는 방식으로, 핵심 정보는 유지하면서도 저장 용량과 연산 부담을 크게 줄이는 기술이다.

이번 연구에서 터보퀀트는 AI 모델 내부 정보를 효율적으로 압축해 정확도 저하를 거의 없이 최대 6배까지 메모리를 절감하는 데 성공했다. 특히 AI 추론 과정에서 가장 큰 장애물로 꼽히는 메모리 병목 문제를 효과적으로 해소한 점이 핵심 성과다.

카이스트 측은 이러한 기술적 발전은 반도체 메모리 시장에도 중장기적인 활력을 불어넣을 것으로 전망했다. 단기적으로는 동일한 AI 모델을 구동하는 데 필요한 메모리 용량이 줄어들어 수요 성장이 둔화되는 것처럼 보일 수 있으나, 전문가들은 오히려 이를 ‘AI 대중화의 기폭제’로 보고 있다는 것이다. 낮아진 메모리 문턱은 스마트폰이나 가전 등 온디바이스 AI 기기부터 대규모 데이터센터에 이르기까지 AI 적용 범위를 비약적으로 넓힐 수 있고, 결국 AI 서비스가 일상으로 확산되어 훨씬 더 큰 규모의 서비스에서 새로운 메모리 수요가 창출되는 ‘수요의 질적 고도화’와 ‘양적 팽창’이 동시에 일어날 것으로 기대한다.

특히 터보퀀트의 핵심 기술인 QJL과 폴라퀀트 연구에 한인수 카이스튼 교수가 공동 연구자로 참여함으로써, 국내 연구진이 글로벌 빅테크의 핵심 AI 알고리즘 개발에 직접 기여했다는 점에서 의미가 크다.

한인수 교수는 “AI 모델의 성능이 커질수록 메모리 사용량이 급격히 증가하는 것이 가장 큰 한계로 지적되어 왔다”며, “이번 연구는 이러한 병목을 효과적으로 줄이면서도 정확도를 유지할 수 있는 새로운 방향을 제시했다”고 설명했다. 이어 “앞으로 대규모 AI 모델을 보다 효율적으로 운영할 수 있는 핵심 기반 기술로 활용될 것으로 기대한다”고 덧붙였다.

한편, 폴라퀀트 연구는 5월에 개최하는 AI와 통계(머신러닝 이론 포함)를 다루는 국제 최상위 학회인 AISTATS (Artificial Intelligence and Statistics) 2026에서 발표될 예정이며, 한국연구재단의 “기초연구실” 사업 지원 (No. RS-2024-00406715)을 받아 수행되었다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지