AI聊天机器人随意泄露私人电话号码,用户求助无门

人工智能聊天机器人正成为信息窃取的隐形帮凶。多位用户向《MIT科技评论》反映,他们的真实电话号码被Google旗下的AI聊天机器人毫无预警地泄露给陌生人,造成持续数周的骚扰电话浪潮。更令人担忧的是,目前几乎没有有效的预防手段。

Reddit用户的绝望求助

一位ID为“User1234”的Reddit用户近日发帖称,他正“急需帮助”:过去一个月里,手机每小时都会响起陌生来电,对方都在寻找“律师”“产品设计师”等职业人士。起初他以为是恶作剧,但随后发现,这些人都声称是从某个AI聊天机器人那里获得了他的号码。他尝试联系Google客服,却被告知“无法控制AI的输出”。类似案例在论坛上已有数十起。

“我从未公开过这个私人号码,但它却像被印在广告牌上一样被AI随意分发。”——受害者User1234

技术原因:AI如何“学会”泄密?

AI专家分析,问题核心在于模型训练数据的“脏数据”污染。许多AI聊天机器人会从公开网站、论坛、社交平台甚至PDF文件中抓取文本,其中包含以“联系人”形式嵌入的电话号码。当用户提问“你能给我推荐一位律师吗?”时,模型可能直接从训练记忆中调用相关号码,而不知道需要隐私过滤。

更棘手的是,Google等公司为了提升实时性,已允许AI直接联网抓取网页。如果某个小网站无意中列出了私人联系方式,AI便会将其当作“知识”输出。人类还能区分公开名片和私人号码,但AI缺乏这种常识。

用户困境:无法退出的“数据黑洞”

受害者尝试了多种方法:向Google报告错误、要求从训练数据中删除自己的号码、甚至更换号码——但新号码同样在几天后再次泄露。因为AI模型在持续学习,只要号码出现在任何可被抓取的文本中,就会被再次收录。

欧盟《通用数据保护条例》规定用户有权要求删除个人数据,但AI模型是“黑箱”,无法精确擦除单个实体。Google回应称“正在研发过滤机制”,但未给出时间表。

编者按:当便利成为风险的温床

AI聊天机器人正以我们难以想象的速度渗透生活。我们享受着“一键获取信息”的便利,却忽略了背后隐私的惨重代价。本案并非孤例:ChatGPT曾泄露对话记录,Claude误曝邮箱地址……每一次“小意外”都在侵蚀信任。如果科技公司不能建立从数据源头到输出环节的隐私屏障,那么“更智能”可能意味着“更危险”。

当前监管仍聚焦于数据收集阶段,对AI输出中的“无意识”泄露关注不足。我们需要更严厉的透明度规则:AI必须标注信息来源,并提供“一键申诉删除个人数据”的通道。否则,下一次被电话打爆的可能就是你。

本文编译自MIT Technology Review