诺贝尔奖得主经济学家警示AI三大动向

几个月前,达龙·阿西莫格鲁(Daron Acemoglu)在获得2024年诺贝尔经济学奖之前发表了一篇论文,这篇论文让他在硅谷几乎不受欢迎。与大型科技公司描绘的“AI造福全人类”叙事不同,阿西莫格鲁用数据和历史证据指出,当前的AI发展可能正在走向歧途。

作为麻省理工学院的经济学教授,阿西莫格鲁长期研究技术变革与经济增长的关系。在他看来,AI不是简单的“效率引擎”,而是一把双刃剑。他在最新研究中提出,当前AI领域有三个亟待关注的趋势,如果忽略它们,社会可能在未来十年付出沉重代价。

第一,劳动力替代正在加速,但技能提升未能跟上

阿西莫格鲁在他的论文中分析了近年来AI对就业市场的影响。他引用多项研究表明,生成式AI虽然创造了一些新岗位,但更显著地替代了高薪的白领工作——从客服、翻译到初级法律助理和代码编写。他警告说:“我们正在经历一场‘技能偏态’的技术变革:AI主要服务于资本,而不是劳动者。” 他指出,大量低技能工人被挤出市场,而AI带来的增效并未转化为工资提升,反而加剧了收入不平等。

这一观点与硅谷乐观派形成鲜明对比。OpenAI和Google等公司的高管曾多次宣称,AI将“解放人类创造力”。但阿西莫格鲁反驳说,如果缺乏配套的教育体系和再培训计划,这种“解放”只会让更多人陷入失业焦虑。他呼吁政府和企业投入更多资源进行职业再培训,并考虑对AI替代人类工作的行为征收“自动化税”。

第二,大型科技公司正在形成“AI数据垄断”

阿西莫格鲁关注的第二件事是AI市场的集中度。他认为,当前AI领域的竞争正在走向寡头化:少数几家科技巨头控制了关键算力、海量用户数据和顶尖AI人才。这种垄断不仅抬高了AI服务价格,还限制了中小企业和初创公司的创新空间。他举例说,OpenAI的GPT系列和Google的Gemini模型需要数十亿美元的训练成本,而普通开发者只能依赖这些平台提供的API,本质上沦为“数字佃农”。

更令人担忧的是,这些公司可以利用数据优势进一步巩固其市场地位。阿西莫格鲁在论文中写道:“如果AI的发展只是让少数人的财富指数级增长,而多数人沦为被动消费者,那么这种技术革命将注定是一场零和博弈。” 他建议反垄断机构应提前介入,通过数据共享、模型开源等政策来降低行业壁垒,并鼓励政府资助开源AI项目作为公共品。

第三,全球AI监管正在碎片化,缺乏协调机制

阿西莫格鲁指出,目前欧盟、美国和中国都在制定各自的AI法规,但这些规则之间存在巨大差异,且缺乏国际协调。例如,欧盟的《人工智能法案》强调风险分级和用户权利保护,而美国更偏向行业自律和创新激励。这种碎片化不仅增加了跨国企业的合规成本,还可能导致“监管套利”——企业将高风险AI应用迁移到监管宽松的地区。

“我们需要一个类似《巴黎协定》的全球AI治理框架,”阿西莫格鲁在近期的演讲中表示,“但这并不意味着要统一所有规则,而是设立最低标准和红线,比如禁止有偏见的算法在司法和医疗领域使用。” 他还警告说,如果各国只顾抢夺AI竞赛的领先地位,而忽视安全与伦理,最终可能引发“AI军备竞赛”甚至大规模社会动荡。

“AI的终极目标不应是替代人类,而是增强人类。我们必须选择一条让技术服务于多数人,而非少数人的道路。” —— 达龙·阿西莫格鲁

编者按:阿西莫格鲁的警告为何值得重视?

作为一位研究技术变革数十年的经济学家,阿西莫格鲁的观点从不是技术悲观主义。他承认AI有潜力解决气候变化、医疗诊断等重大问题,但他强调,技术本身不会自动带来公平——需要政策、制度和公众讨论来引导其方向。硅谷的反对声中,往往忽略了这一核心警告:当AI的发展由资本逻辑主导时,社会风险会被放大。本文编译自MIT Technology Review,希望引发更多关于“我们想要什么样的AI未来”的思考。