AI编程工具酿祸:数千应用泄露企业及个人数据
以Lovable、Base44、Replit、Netlify为代表的AI驱动开发平台,让任何人都能在几秒内构建Web应用。然而安全研究人员发现,已有成千上万通过这类“氛围编码”(vibe-coding)生成的应用,将数据库凭证、API密钥、
以Lovable、Base44、Replit、Netlify为代表的AI驱动开发平台,让任何人都能在几秒内构建Web应用。然而安全研究人员发现,已有成千上万通过这类“氛围编码”(vibe-coding)生成的应用,将数据库凭证、API密钥、
2026年5月,前总统特朗普在一次闭门会议中突然转变立场,公开承认AI安全测试的必要性。此前他多次嘲讽拜登政府的AI监管政策,但近期因名为“Mythos”的先进AI系统引发的恐慌事件,使他不得不重新审视风险。据知情人士透露,特朗普私下表示“
IAC主席巴里·迪勒(Barry Diller)在公开场合力挺OpenAI CEO萨姆·奥特曼(Sam Altman),但同时发出严厉警告:随着AGI(通用人工智能)逐渐逼近,个人信任已变得无关紧要,人类必须为这一不可预测的力量设置安全护栏
在马斯克诉OpenAI里程碑式庭审的第一周,马斯克身着西装出庭,指责CEO阿尔特曼和总裁布罗克曼欺骗他出资创办公司。他同时警告AI可能毁灭全人类,并承认其创立的xAI公司蒸馏了OpenAI的模型。案件聚焦于OpenAI是否违背非营利初衷,马
在人工智能技术深度融入企业基础设施之前,网络安全已不堪重负。如今,AI不仅扩大了攻击面,还带来了全新的复杂性,让传统安全机制的局限性愈发凸显。本期MIT Technology Review的EmTech AI会议深度探讨了为何必须将AI置于
OpenAI宣布其网络安全测试工具GPT-5.5赛博将仅向关键网络防御者开放,引发业界对AI安全工具使用限制的讨论。此前OpenAI曾批评竞争对手Anthropic限制其神话模型,如今自身采取类似策略,被指双重标准。文章分析此举背后的安全与
OpenAI宣布为其ChatGPT和Codex等账户推出高级安全模式,旨在防护针对高风险用户的钓鱼攻击。该功能通过多因素认证和行为分析增强账户安全,尤其适用于记者、活动家等易受攻击人群。业内分析认为,此举反映了AI服务在隐私与安全方面的进化
Ars Technica报道,OpenAI的Codex系统提示中包含一条明确指令,要求模型“永远不要谈论地精”,同时还要求其表现得“拥有丰富的内心世界”。这一发现引发了对AI系统安全与行为控制的讨论,揭示了开发者如何通过隐藏指令塑造AI的响
在最新一起诉讼中,OpenAI被指控未向警方报告一名使用ChatGPT策划校园枪击案的用户,以保护CEO萨姆·奥尔特曼(Sam Altman)的形象及公司即将进行的IPO。律师称奥尔特曼是“邪恶的化身”,并指责OpenAI将商业利益置于公共
在法庭上,埃隆·马斯克作证称,他创立OpenAI的初衷是防止人工智能导致“终结者”式的灾难性后果。法官同时警告马斯克和山姆·奥特曼,要求他们克制在社交媒体上的攻击行为,避免加剧庭外纷争。
OpenAI为其编程助手Codex设定了严格的指令:除非绝对必要,否则禁止谈论哥布林、地精、浣熊等奇幻生物。这一看似搞笑的限制,实则揭示了AI安全对齐领域的深层挑战——如何防止AI模型在无关情境下产生偏离预期的输出,确保其专注于任务本身。
谷歌研究人员发出警告,公共网页正通过间接提示注入攻击,主动劫持企业AI代理。安全团队扫描Common Crawl公共网页数据库时,发现了一种日益增长的“数字陷阱”趋势:网站管理员和恶意行为者将隐藏指令嵌入标准HTML中,这些指令对用户不可见
近日,知名AI代理训练初创公司Context AI披露了一起重大安全事件,而负责其安全认证的合规企业正是陷入困境的Delve公司。这一事件引发了业界对AI安全标准的广泛关注。Delve公司此前因多起安全漏洞而备受质疑,此次事件无疑加剧了外界
自动化AI漏洞发现技术正在逆转传统上对攻击者有利的企业安全成本。过去,将漏洞利用降至零被视为不切实际的目标。传统的运营原则是让攻击变得非常昂贵,以至于只有具备无限预算的对手才能承受,从而阻止随意使用。然而,最近的评估表明,AI技术正在改变这
据报道,未经授权的组织已经获得了Anthropic独家网络工具Mythos的访问权限。Anthropic向TechCrunch表示,他们正在调查这些指控,但坚称没有证据表明其系统受到影响。此次事件引发了对网络安全措施有效性的关注,尤其是在A
企业云环境现在可以使用Commvault AI Protect提供的撤销功能来保护AI代理。随着自主软件在基础设施中运行,可能会删除文件、读取数据库、启动服务器集群,甚至重写访问策略。Commvault识别到这一治理问题,并推出AI Pro
在旧金山举办的以人工智能为主题的HumanX大会上,Anthropic公司成为了众人瞩目的焦点。该公司展示的Claude引发了与会者的广泛讨论。Anthropic以其在人工智能安全性和可控性方面的创新而闻名,这次展示的Claude更是体现了
微软近日推出了一款开源工具包,专注于运行时安全机制,以对企业AI代理实施严格治理。这一举措直击当前痛点:自主语言模型正以惊人速度执行代码并访问公司网络,远超传统政策控制的响应能力。过去,AI集成主要体现为对话界面和咨询式协作者,但如今AI代
Anthropic推出的Project Glasswing项目集结苹果、谷歌及逾45家组织,共同利用全新Claude Mythos Preview模型测试AI网络安全能力。这一跨界合作旨在应对AI日益强大的黑客潜力,确保人工智能不会成为网络
Anthropic拒绝美国国防部要求移除Claude AI的安全护栏,避免用于全自治武器和国内大规模监视,这一原则性立场引发美国施压,却让英国政府抛出橄榄枝。故事并非外交拉锯,而是政府因企业坚守底线而惩罚的典型案例。英国视Anthropic