海外 Ollama MLX支持让Mac本地AI模型运行更快 Ars Technica报道,Ollama现已支持Apple的MLX框架,在Apple Silicon Mac上运行本地大语言模型的速度大幅提升。这得益于MLX对统一内存架构的优化利用,避免了传统框架的内存拷贝开销。新功能让Mac用户能更高 Ollama MLX Apple Silicon 本地AI模型 2026年4月1日 528