测评 KTransformers加速SGLang的混合推理 KTransformers项目为Mixture-of-Experts(MoE)模型的CPU/GPU混合推理提供了一系列优化,显著提升了计算效率。通过引入AMX优化的CPU内核和高效的设备协调机制,KTransformers解决了传统混合推理 LMSYS AI技术 混合推理 KTransformers 2026年2月4日 1,070
测评 SGLang-Diffusion 两个月的进展 自2025年11月初发布以来,SGLang-Diffusion在社区中引起了广泛关注和应用。我们非常感谢开源开发者的反馈和贡献。经过两个月的优化,SGLang-Diffusion的速度提升了2.5倍。本文总结了我们在模型支持、LoRA支持、 LMSYS AI技术 深度学习 性能优化 2026年2月4日 835