구글에서 말한 터보퀀트는 AI가 대화를 기억할 때 쓰는 메모리 공간을 6배나 줄여주는 기술입니다. 메모리가 많으면 더 좋겠지만 이 기술 때문에 똑같은 장비로도 훨씬 길고 복잡한 작업을 빠르게 할 수 있게 된거죠. 반도체 수요가 줄어들까 봐 걱정하는 시각도 물론 있습니다. 그래도 AI 서비스가 더 저렴해지게 되고 이용자가 늘어나서 나중에는 반도체가 더 필요할 수도 있을 거라 생각하는 분위기입니다.
구글에서 공개한 터보퀀트는 AI 모델의 가중치를 더 낮은 비트로 압축해도 성능 저하를 최소화하는 고급 양자화 기술 계열로 쉽게 말해 같은 모델을 더 적은 메모리와연산으로 돌리게 해주는 방식입니다 이 덕분에 GPU 메모리 사용량이 줄어 비용과 전력 소모를 크게 낮출 수 있어 반도체가 덜 필요하다는 이야기가 나오고 있는 겁니다 하지만 성능 속도대형 모델 학습에서는 여전히 고성능 반도체가 많이 필요하기 때문에 압축 기술이 발전해도 반도체 수요가 사라지는 것은 아닙니다 오히려 압축 기술은 효율을 높여 더 많은 곳에 AI를 쓰게 만드는 역할을 하기 때문에 전체 반도체 수요를 장기적으로 늘릴 가능성이 있다고 봅니다