海外 谷歌TurboQuant算法:LLM内存使用骤减6倍 谷歌推出TurboQuant AI压缩算法,可将大型语言模型(LLM)的内存占用降低高达6倍,同时保持输出质量不变。这一创新解决了AI模型部署中的高内存痛点,推动边缘设备和云端应用的普及。相较传统量化方法,TurboQuant避免了性能衰减 谷歌AI 模型压缩 LLM优化 TurboQuant 2026年3月27日 246