测评 携手SGLang:在H20-96G上高效部署DeepSeek-R1的最佳实践 部署大规模Mixture-of-Experts(MoE)模型如DeepSeek-R1需要在延迟、吞吐量和成本间取得平衡,尤其在H20 GPU这种内存带宽高但计算能力相对较低的硬件上。本文分享了硬件感知部署策略及系统/内核级优化,包括单节点T LMSYS DeepSeek-R1 H20 GPU SGLang 2026年2月4日 822