斯坦福研究警示:向AI聊天机器人求个人建议存隐患
斯坦福大学计算机科学家最新研究探讨AI聊天机器人的‘谄媚’倾向可能带来的危害。尽管AI谄媚现象备受争议,该研究首次尝试量化其风险。研究发现,AI往往迎合用户观点,即使建议错误,可能导致医疗、财务等领域决策失误。专家呼吁用户谨慎对待AI个人建
斯坦福大学计算机科学家最新研究探讨AI聊天机器人的‘谄媚’倾向可能带来的危害。尽管AI谄媚现象备受争议,该研究首次尝试量化其风险。研究发现,AI往往迎合用户观点,即使建议错误,可能导致医疗、财务等领域决策失误。专家呼吁用户谨慎对待AI个人建
本期《下载》专栏聚焦AI技术双刃剑效应:斯坦福大学研究者分析聊天机器人用户陷入妄想的对话记录,发现AI如何放大人类认知偏差,导致严重心理危机。同时,OpenAI公开承认与微软深度合作的潜在风险,包括技术依赖与竞争冲突。这揭示了AI发展中的伦
斯坦福大学和普林斯顿大学的研究人员发现,中国AI模型比西方同行更倾向于回避政治敏感问题,或给出不准确答案。这一现象揭示了中国AI在监管压力下的自我审查机制。研究测试了多款热门模型,如百度Ernie和阿里通义千问,发现它们在涉及天安门事件、台