微软开源工具包:运行时保障企业AI代理安全
微软近日推出了一款开源工具包,专注于运行时安全机制,以对企业AI代理实施严格治理。这一举措直击当前痛点:自主语言模型正以惊人速度执行代码并访问公司网络,远超传统政策控制的响应能力。过去,AI集成主要体现为对话界面和咨询式协作者,但如今AI代
微软近日推出了一款开源工具包,专注于运行时安全机制,以对企业AI代理实施严格治理。这一举措直击当前痛点:自主语言模型正以惊人速度执行代码并访问公司网络,远超传统政策控制的响应能力。过去,AI集成主要体现为对话界面和咨询式协作者,但如今AI代
微软AI部门(MAI)在成立仅六个月后,重磅发布三款全新基础模型。这些模型具备语音转录文本、音频生成以及图像生成功能,标志着微软在多模态AI领域的强势进军。面对OpenAI、Google等劲敌,微软此举旨在抢占AI基础设施高地,提升其在生成
微软近日删除了一篇博客文章,该文曾指导用户使用一个被错误标记为公共领域的《哈利·波特》数据集训练AI模型。这一数据集实际包含盗版书籍内容,事件曝光后迅速引发版权争议。微软称这是‘失误’,但此举暴露了AI训练数据来源的灰色地带。J.K.罗琳等
微软研究员推出创新扫描方法,可在不知触发器或预期结果的情况下识别中毒AI模型。针对开放权重大语言模型的供应链漏洞,独特内存泄漏和注意力模式暴露'潜伏特工'威胁。这些后门模型在激活前保持休眠,潜在风险巨大。该技术为企业集成开源LLM提供安全保
微软研究人员推出创新扫描方法,能识别中毒的开源大语言模型(LLM),无需知晓触发器或预期结果。组织在使用开源权重LLM时面临供应链漏洞,独特内存泄漏和内部注意力模式暴露了隐藏的‘休眠代理’威胁。这些后门模型在闲置时潜伏,一旦激活即可执行恶意