测评 KTransformers加速SGLang的混合推理 KTransformers项目为Mixture-of-Experts(MoE)模型的CPU/GPU混合推理提供了一系列优化,显著提升了计算效率。通过引入AMX优化的CPU内核和高效的设备协调机制,KTransformers解决了传统混合推理 LMSYS AI技术 混合推理 KTransformers 2026年2月4日 1,070