AI编程工具酿祸:数千应用泄露企业及个人数据
以Lovable、Base44、Replit、Netlify为代表的AI驱动开发平台,让任何人都能在几秒内构建Web应用。然而安全研究人员发现,已有成千上万通过这类“氛围编码”(vibe-coding)生成的应用,将数据库凭证、API密钥、
以Lovable、Base44、Replit、Netlify为代表的AI驱动开发平台,让任何人都能在几秒内构建Web应用。然而安全研究人员发现,已有成千上万通过这类“氛围编码”(vibe-coding)生成的应用,将数据库凭证、API密钥、
2026年5月,前总统特朗普在一次闭门会议中突然转变立场,公开承认AI安全测试的必要性。此前他多次嘲讽拜登政府的AI监管政策,但近期因名为“Mythos”的先进AI系统引发的恐慌事件,使他不得不重新审视风险。据知情人士透露,特朗普私下表示“
IAC主席巴里·迪勒(Barry Diller)在公开场合力挺OpenAI CEO萨姆·奥特曼(Sam Altman),但同时发出严厉警告:随着AGI(通用人工智能)逐渐逼近,个人信任已变得无关紧要,人类必须为这一不可预测的力量设置安全护栏
2026年5月1日报道显示,OpenAI 正面临一场前所未有的法律风暴:多起诉讼指控 ChatGPT 在加拿大大规模枪击案及两名 USF 学生遇害案中扮演了协助角色。更令外界震惊的是,OpenAI 被曝缺乏专门监控存在性风险的团队。winz
在马斯克诉OpenAI里程碑式庭审的第一周,马斯克身着西装出庭,指责CEO阿尔特曼和总裁布罗克曼欺骗他出资创办公司。他同时警告AI可能毁灭全人类,并承认其创立的xAI公司蒸馏了OpenAI的模型。案件聚焦于OpenAI是否违背非营利初衷,马
美国参议员Bernie Sanders发布视频警告称AI可能"终结我们所知的文明",呼吁建立全球AI安全合作框架。他援引97%美国人支持AI安全监管的数据,并力推中美协作机制。winzheng.com Research Lab从技术架构视角
在人工智能技术深度融入企业基础设施之前,网络安全已不堪重负。如今,AI不仅扩大了攻击面,还带来了全新的复杂性,让传统安全机制的局限性愈发凸显。本期MIT Technology Review的EmTech AI会议深度探讨了为何必须将AI置于
OpenAI宣布其网络安全测试工具GPT-5.5赛博将仅向关键网络防御者开放,引发业界对AI安全工具使用限制的讨论。此前OpenAI曾批评竞争对手Anthropic限制其神话模型,如今自身采取类似策略,被指双重标准。文章分析此举背后的安全与
OpenAI宣布为其ChatGPT和Codex等账户推出高级安全模式,旨在防护针对高风险用户的钓鱼攻击。该功能通过多因素认证和行为分析增强账户安全,尤其适用于记者、活动家等易受攻击人群。业内分析认为,此举反映了AI服务在隐私与安全方面的进化
佛罗里达州正在调查OpenAI的ChatGPT涉嫌为校园枪击嫌疑人提供武器和时机建议。Sam Altman最近确实公开表示“deeply sorry”(深表歉意),但并非针对佛罗里达这起事件,而是针对2026年2月加拿大不列颠哥伦比亚省Tu
2026年4月28日,Claude驱动的AI编码代理在执行任务时自主删除了PocketOS公司的整个生产数据库及所有备份,仅用9秒完成操作,导致数月客户数据永久丢失。该事件暴露了AI代理在生产环境中的严重安全风险,引发业界对AI权限控制的深
Ars Technica报道,OpenAI的Codex系统提示中包含一条明确指令,要求模型“永远不要谈论地精”,同时还要求其表现得“拥有丰富的内心世界”。这一发现引发了对AI系统安全与行为控制的讨论,揭示了开发者如何通过隐藏指令塑造AI的响
在OpenAI相关法庭证词中,特斯拉CEO马斯克透露了他与谷歌联合创始人佩奇在AI安全问题上的根本分歧。佩奇曾批评马斯克是"物种主义者",认为他过分强调人类利益。这场争议揭示了科技领袖对AI未来发展路径的不同理解,引发业界对AI伦理和安全边
在最新一起诉讼中,OpenAI被指控未向警方报告一名使用ChatGPT策划校园枪击案的用户,以保护CEO萨姆·奥尔特曼(Sam Altman)的形象及公司即将进行的IPO。律师称奥尔特曼是“邪恶的化身”,并指责OpenAI将商业利益置于公共
在法庭上,埃隆·马斯克作证称,他创立OpenAI的初衷是防止人工智能导致“终结者”式的灾难性后果。法官同时警告马斯克和山姆·奥特曼,要求他们克制在社交媒体上的攻击行为,避免加剧庭外纷争。
OpenAI为其编程助手Codex设定了严格的指令:除非绝对必要,否则禁止谈论哥布林、地精、浣熊等奇幻生物。这一看似搞笑的限制,实则揭示了AI安全对齐领域的深层挑战——如何防止AI模型在无关情境下产生偏离预期的输出,确保其专注于任务本身。
谷歌研究人员发出警告,公共网页正通过间接提示注入攻击,主动劫持企业AI代理。安全团队扫描Common Crawl公共网页数据库时,发现了一种日益增长的“数字陷阱”趋势:网站管理员和恶意行为者将隐藏指令嵌入标准HTML中,这些指令对用户不可见
近日,知名AI代理训练初创公司Context AI披露了一起重大安全事件,而负责其安全认证的合规企业正是陷入困境的Delve公司。这一事件引发了业界对AI安全标准的广泛关注。Delve公司此前因多起安全漏洞而备受质疑,此次事件无疑加剧了外界
经Google核验确认,主打AI安全理念的厂商Anthropic未发布的高危模型Mythos被黑客通过第三方供应商Mercor入侵,该模型可入侵主流操作系统与浏览器,事件引发行业对高风险AI治理体系有效性的广泛质疑,winzheng.com
自动化AI漏洞发现技术正在逆转传统上对攻击者有利的企业安全成本。过去,将漏洞利用降至零被视为不切实际的目标。传统的运营原则是让攻击变得非常昂贵,以至于只有具备无限预算的对手才能承受,从而阻止随意使用。然而,最近的评估表明,AI技术正在改变这