구글 TurboQuant 쇼크 — 반도체 투자자가 알아야 할 것들
구글의 AI 메모리 압축 기술 터보퀀트 발표로 삼성전자·SK하이닉스·엔비디아가 동반 급락했다. HBM 수요 감소 우려의 실체와 투자자 시사점을 분석한다.
핵심 요약
구글 리서치가 3월 25일 발표한 AI 메모리 압축 알고리즘 **TurboQuant(터보퀀트)**가 반도체 시장에 충격파를 던졌다. LLM 메모리 사용량을 6배 줄이고 처리 속도를 8배 높인다는 발표에 HBM 수요 감소 우려가 확산되며, 3월 26일 삼성전자(-4.71%), SK하이닉스(-6.23%), 마이크론(-3.4%) 등 메모리 반도체주가 동반 급락했다.
무슨 일이 있었나
3월 25일(현지시간), 구글 리서치는 공식 블로그를 통해 새로운 압축 알고리즘 'TurboQuant'를 공개했다. 다음 달 열리는 AI 학회 ICLR 2026에서 정식 발표될 예정이다.
시장은 즉각 반응했다. 뉴욕 증시에서 마이크론(MU)이 3.4%, 웨스턴디지털(WDC)이 1.6% 하락했고, 이 여파는 다음 날 아시아 시장으로 전이됐다. 3월 26일 한국 코스피는 3.22% 빠졌고, 삼성전자는 4.71%, SK하이닉스는 6.23% 급락하며 각각 180만 1,000원, 933만 원에 마감했다.
클라우드플레어의 매튜 프린스 CEO는 이를 **"구글의 딥시크 모먼트"**라고 표현했다. 올해 초 딥시크가 저비용 AI 모델로 시장을 뒤흔들었던 것처럼, 소프트웨어가 하드웨어 수요를 잠식할 수 있다는 공포가 재현된 것이다.
TurboQuant가 뭔가
TurboQuant는 LLM 추론 과정에서 가장 큰 병목인 KV(Key-Value) 캐시의 메모리 사용량을 획기적으로 줄이는 압축 기술이다.
KV 캐시란 AI 모델이 긴 텍스트를 처리할 때 이전 내용을 기억하기 위해 사용하는 '단기 기억 저장소'다. 컨텍스트 윈도우(AI가 한 번에 처리할 수 있는 텍스트 범위)가 길어질수록 이 저장소가 기하급수적으로 커지면서 대량의 고성능 메모리가 필요해진다.
TurboQuant는 두 가지 핵심 기술로 구성된다:
- PolarQuant: 벡터를 기존 좌표계 대신 극좌표계로 변환해, 반지름(데이터 강도)과 방향만으로 압축하는 방식
- QJL: 압축 과정에서의 정확도 손실을 최소화하는 학습·최적화 기법
결과적으로 엔비디아 H100 GPU 기준 메모리 사용량 6배 감소, 처리 속도 최대 8배 향상을 달성했으며, 정확도 손실은 거의 없다고 구글은 밝혔다.
왜 반도체주가 빠졌나
시장이 공포에 빠진 핵심 논리는 단순하다: 소프트웨어로 메모리 효율이 6배 좋아지면, HBM을 6분의 1만 사면 되지 않나?
AI 서버 한 대당 탑재되는 고대역폭메모리(HBM)의 양적 팽창에 베팅해온 투자자들에게, 소프트웨어가 하드웨어 수요를 대체할 수 있다는 시나리오는 치명적이다.
웰스파고 애널리스트들은 "터보퀀트는 메모리 비용 곡선을 직접적으로 공격하고 있다"며 "필요한 메모리 용량 자체에 대한 의문이 빠르게 확산될 것"이라고 경고했다.
실제 영향은? — 단기 쇼크 vs 장기 전망
단기: 심리적 충격이 크다
기술 발표 직후의 급락은 공포 심리에 의한 것으로, 실제 HBM 수주나 출하량에 당장 변화가 생긴 것은 아니다. 과거 딥시크 쇼크 때도 단기 급락 후 빠르게 반등한 전례가 있다.
장기: 제번스의 역설에 주목
모건스탠리는 전날 보고서에서 시장의 패닉 셀링을 **"과도한 우려"**로 규정하며, 오히려 매수 기회라고 권고했다. 그 논거가 바로 **'제번스의 역설(Jevons Paradox)'**이다.
자원의 이용 효율이 높아지면 비용이 하락하고, 이는 결국 해당 자원의 전체 소비량을 폭발적으로 늘린다.
모건스탠리는 "AI 운영 비용이 6분의 1로 낮아지면, 도입을 망설이던 기업들이 대거 AI 생태계에 진입할 것"이라며 "메모리 총 수요를 줄이는 것이 아니라, AI 시장의 파이 자체를 키우는 촉매제가 될 것"이라고 분석했다.
KB증권 김일혁 연구원도 같은 맥락에서 "KV 캐시 메모리가 덜 필요해진 만큼 가장 먼저 나타날 변화는 컨텍스트 윈도우의 무한 확장"이라고 전망했다.
또한 중요한 점은 터보퀀트가 추론(Inference) 단계에만 적용된다는 것이다. AI 모델 학습(Training)에 필요한 HBM의 원천적 수요는 영향을 받지 않는다.
투자자 시사점
-
단기 변동성에 대비하되 과잉 공포는 경계할 것. 딥시크 쇼크의 데자뷔다. 기술적 분석 없이 뉴스 헤드라인만으로 투매에 동참하면 기회를 놓칠 수 있다.
-
추론 vs 학습 구분이 핵심. 터보퀀트는 추론 효율화 기술이다. HBM 수요의 주축인 학습 인프라에는 직접적 영향이 제한적이다.
-
제번스의 역설을 기억하자. AI 비용이 낮아지면 시장 자체가 커진다. 온디바이스 AI, AI 에이전트 등 새로운 수요처가 열리면 오히려 반도체 수요는 증가할 수 있다.
-
ICLR 2026(4월) 정식 발표를 주시할 것. 실제 벤치마크 결과와 적용 범위에 따라 시장의 재평가가 이뤄질 수 있다.
-
삼성전자·SK하이닉스의 HBM4 로드맵은 유효하다. 차세대 HBM 기술 경쟁은 터보퀀트와 무관하게 진행 중이며, AI 인프라 확장의 핵심 축이다.
본 글은 정보 제공 목적이며, 특정 종목에 대한 매수·매도 추천이 아닙니다.