Anthropic 发布 Sonnet 4.6:中型模型四月迭代再升级
Anthropic 近日推出 Sonnet 4.6,这是其中型 Sonnet 模型的最新版本,严格遵循公司四个月的更新周期。此次升级在保持高效计算成本的同时,进一步提升了模型的推理能力和多模态处理性能,标志着 Anthropic 在 AI
Anthropic 近日推出 Sonnet 4.6,这是其中型 Sonnet 模型的最新版本,严格遵循公司四个月的更新周期。此次升级在保持高效计算成本的同时,进一步提升了模型的推理能力和多模态处理性能,标志着 Anthropic 在 AI
随着大语言模型进入安全、合规关键环境,对抗性提示鲁棒性已成为运营必需。单轮越狱攻击持续暴露系统弱点。MLCommons 推出基于分类法的评估方法,建立可辩护、可复现的基准基础。该方法采用机制优先的单轮提示攻击分类法,确保确定性标注、一一映射
加拿大AI初创公司Cohere在2025年年度经常性收入(ARR)突破2.4亿美元,彰显企业级AI需求的强劲势头。随着OpenAI和Anthropic等巨头的激烈竞争,这家初创企业正积极筹备潜在IPO。Cohere凭借其专注于企业定制化大语
AI代理充满风险。即使局限于聊天窗口,大语言模型(LLM)也会出错或行为不当。一旦赋予它们浏览器、邮箱等外部工具,错误后果将急剧放大。这或许解释了为何科技巨头在推进AI代理时如此谨慎。本文探讨AI安全挑战、现有风险案例及潜在解决方案,分析未
MLCommons 最新发布 Llama 3.1 8B 模型训练基准报告,由 LMSYS Org 贡献。该报告详细记录了使用标准硬件集群训练该 8B 参数模型的全过程,包括数据准备、训练时长、能耗和性能指标。结果显示,在 4090 张 H1
MIT Technology Review解析:每次OpenAI、Google或Anthropic发布前沿大语言模型,AI社区都屏息以待,直到METR给出评估结果。这个图表被视为AI进展的风向标,却饱受误解。它并非显示scaling定律失效
微软研究员推出创新扫描方法,可在不知触发器或预期结果的情况下识别中毒AI模型。针对开放权重大语言模型的供应链漏洞,独特内存泄漏和注意力模式暴露'潜伏特工'威胁。这些后门模型在激活前保持休眠,潜在风险巨大。该技术为企业集成开源LLM提供安全保
Anthropic 最新推出 Opus 4.6 模型版本,引入革命性‘代理团队’功能,旨在显著扩展其能力边界和市场吸引力。该更新允许多个 AI 代理协同协作,处理复杂多任务场景,支持企业级应用从自动化客服到科研模拟等多种用途。相比前代,Op
MIT Technology Review解析:每次OpenAI、Google或Anthropic发布前沿大语言模型,AI社区都屏息以待,直到METR公布结果。这个图表追踪模型性能随计算量变化,却常被误解为AI进步停滞的证据。本文揭开其真相
微软研究人员推出创新扫描方法,能识别中毒的开源大语言模型(LLM),无需知晓触发器或预期结果。组织在使用开源权重LLM时面临供应链漏洞,独特内存泄漏和内部注意力模式暴露了隐藏的‘休眠代理’威胁。这些后门模型在闲置时潜伏,一旦激活即可执行恶意
《MIT科技评论》的平日通讯《下载》带来科技前沿动态。本期聚焦AI领域最易误解的图表:每当OpenAI、Google或Anthropic发布前沿大语言模型,社区屏息以待METR的评估结果。该图表揭示模型性能与计算资源的关联,却常被误读。同时