구글이 메모리 사용을 획기적으로 줄여 인공지능(AI) 성능을 높이는 ‘터보퀀트’ 기술을 발표하자 메모리 반도체 초호황이 끝나는 것 아니냐는 전망이 제기된다. 이에 따라 메모리 반도체를 생산하는 삼성전자와 SK하이닉스, 미국 마이크론의 주가가 급락하는 등 파장이 일고 있다.
하지만 전문가들은 이 같은 우려가 과도한 반응이라고 평가한다. 터보퀀트 기술로 메모리 수요가 줄어들더라도 AI 수요가 더 빠른 속도로 늘고 있어 전체 메모리 수요는 감소하지 않는다는 설명이다.
특히 터보퀸트 기술로 AI의 속도가 빨라지면 AI 확산 가속화를 부추겨 메모리 수요를 폭발적으로 상승시킬 수 있다는 전망도 나온다. 이는 삼성전자(005930)와 SK하이닉스(000660)에 호재인 셈이다.
구글, AI 모델 최적화 위한 ‘터보퀀트’ 어떤 기술?
26일 업계에 따르면 구글 리서치는 최근 새로운 AI 압축 알고리즘 터보퀀트를 발표했다.
터보퀀트는 대규모언어모델(LLM)의 임시 기억장치인 ‘KV 캐시’를 3비트 수준으로 압축해 메모리 사용량을 6배가량 줄이는 기술이다. 단순히 터보퀀트 기술이 상용화되면 메모리 수요가 현재의 6분의 1 수준으로 떨어진다고 해석할 수 있다.
구글은 해당 기술이 기존 알고리즘보다 더 적은 오류로 데이터를 압축할 수 있고 AI 처리 속도도 8배 높인다고 설명했다.
터보퀸트 기술의 핵심은 크게 3가지다. 먼저 데이터 자체를 작게 만들어 메모리 사용을 줄인다. 예를 들어 기존에는 AI가 연산에 0.123456789를 사용했다면 터보퀸트는 0.12만 사용하는 방식이다.
또한 계산 중간값을 저장하지 않고 필요할 때 다시 계산하는 형태다. 메모리 사용량은 줄어드는 대신 연산량은 증가하게 되는 셈이다.
마지막으로 문제를 더 압축된 형태로 변환한다. 같은 문제를 더 작은 수식으로 푸는 방식이다.
IT업계 관계자는 “기존 AI는 메모리를 많이 쓰고 빠르게 처리했다면 터보퀸트는 메모리를 덜 쓰고 계산을 더 많이 수행하는 것”이라며 “데이터를 작게 만들고 덜 저장하고 필요한 것만 계산하는 것”이라고 설명했다.
이날 삼성전자 주가는 전날보다 4.71%(8900원) 하락한 18만 100원을 기록했고 SK하이닉스 역시 6.23%(6만 2000원) 내린 93만 3000원으로 거래를 마쳤다.
“오히려 메모리 수요 증가시킬 것…우려 과해”
전문가들은 터보퀀트 기술이 메모리 사용을 줄일 수는 있으나 메모리 수요 둔화 우려는 다소 과하다는 평가를 내놓는다.
구글 발표대로 메모리 사용이 줄어들 수는 있으나, 이는 AI 기술 발전과 확산으로 이어져 전체 메모리 수요는 오히려 늘어날 것이라는 전망이 지배적이다.
AI 경쟁이 종전 단순 반복 작업에서 실제 업무를 수행하는 에이전트형 AI 중심으로 옮겨가는 추세도 이 같은 우려를 불식시킨다. AI 에이전트 시장 확장 가속화는 메모리 수요를 더욱 부추길 것으로 관측된다.
김일혁 KB증권 연구원은 “동일한 추론을 하는 데에 KV 캐시 메모리가 덜 필요해진 만큼 더 많은 정보를 처리할 수 있게 되면서 AI 모델의 컨텍스트 윈도(AI가 기억할 수 있는 최대 텍스트 범위)가 확장될 것”이라고 내다봤다.
이어 “KV 캐시 메모리가 덜 필요하면 컨텍스트 윈도를 확대할 수 있을 뿐만 아니라 여러 에이전트를 동시에 실행할 수 있다”고 설명했다.
터보퀀트 기술로 인한 우려는 지난해 딥시크 공개 때와 비슷하다는 의견도 나온다.
김 연구원은 “지난해 초 딥시크가 20분의 1의 비용으로 AI 모델을 학습시켰다는 소식에 시장이 공포에 빠졌던 것과 비슷한 상황”이라며 “이후 AI 시장 성장세가 가속된 걸 떠올려 보면 ‘제번스의 역설'(기술 발전으로 어떤 자원의 사용 효율이 높아졌을 때 오히려 그 자원의 총사용량이 늘어나는 현상)로 볼 수 있다”고 꼬집었다.
“삼성전자·SK하이닉스, 호재일 수도”
삼성전자와 SK하이닉스가 터보퀀트 기술 상용화로 혜택을 볼 것이라는 관측도 제기된다. 메모리 수요 증가가 호재로 작용할 수 있어서다.
이영진 삼성증권 연구원은 “터보퀀트 알고리즘이 활용된다면 추론 비용이 하락을 달성할 수 있지만 수요는 폭발할 것”이라며 “속도 및 퀄리티 하향 없이 장기 컨텍스트 윈도 및 대규모 배치의 활용이 가능하다”고 말했다.
이종욱 삼성증권 연구원은 “AI 메모리 수요 감소 요인은 △AI서비스 개선 속도 둔화 △AI 모델 기업끼리의 경쟁 구도 완화 △AI산업 잠재시장 성장 둔화 등 주로 AI 기능이 고착화되는 지점에서 나타날 것”이라며 “D램과 반도체 가격, 데이터센터 비용, AI모델이나 클라우드 기업의 수익성, AI모델의 최적화와 비용 절감 등은 수요에 영향을 미치지 않는다”고 강조했다.
삼성전자의 경우 반도체 위탁생산(파운드리) 사업 수주 증가도 기대되는 상황이다. 삼성전자는 엔비디아의 ‘그록(Groq)3’ 언어처리장치(LPU) 칩을 제조하고 있다.
젠슨 황 엔비디아 CEO가 지난 16일(현지시간) ‘GTC 2026’에서 공개한 Groq3 LPU 칩은 그래픽처리장치(GPU)와 역할을 나눠 추론 성능과 효율성을 높이는 칩으로 삼성전자가 제조를 맡았다.
LPU는 칩 내부에 대규모 초고속 메모리(SRAM)를 직접 탑재, D램 공정 기반의 HBM을 사용한 기존 GPU에서 발생하던 병목현상을 개선했다. 수천 개 코어를 활용해 여러 연산을 동시에 처리하는 병렬 연산에 강한 GPU는 외부 메모리와 데이터를 주고받는 과정에서 병목현상이 생긴다.
AI 기술이 추론 중심으로 고도화되면 메모리 수요가 고대역폭메모리(HBM)나 대용량 메모리(D램)뿐만 아니라 전반적으로 확대된다. 즉 S램을 기반으로 한 추론용 AI칩과 같은 메모리 수요가 늘면서 이를 생산하는 삼성전자의 수주가 증가할 수 있다.
이영진 연구원은 “터보퀀트로 추론 비용이 적어질 경우 장문맥 처리와 대규모 배치 활용이 가능해진다”며 “전체 추론 수요는 오히려 증가할 것”이라고 분석했다.