AI泡沫遇到现实的一年
仅在几年内,人工智能就从利基研究领域转变为现代历史上宣传最多的技术。数万亿美元的市值、数十亿的风险投资以及关于人工通用智能的无数预测,共同营造了一种非理性繁荣的氛围,足以与互联网泡沫相提并论。然后2025年到来了,账单也随之而至。
MIT技术评论在其最新电子书中汇编了一份综合评估,记录了AI公司所承诺的与实际交付的内容之间的脱节。该出版物的\"炒作修正\"系列主张,该行业已进入必要的后炒作阶段,这需要对该技术的真正能力及其同样真实的局限性进行诚实的评估。
这份电子书正值AI行业陷入身份危机之际发布。这项革命性技术曾被宣传为能够改变每个行业、消除数百万个工作岗位,并可能达到超人类智能,但实际上产生了一个更为谨慎的现实——有用但受限的工具,只有在仔细融入现有人类工作流程时才能最佳运行。
95%的失败率
这次清算中最惊人的统计数据来自MIT自己的"GenAI鸿沟"报告,该报告于2025年7月发布。该研究发现,95%的企业AI部署没有提供可衡量的商业价值。这不是怀疑论者或评论家的数据。它源于对多个行业真实企业实施的严谨分析。
失败率需要上下文。在2023年和2024年间,各行各业的公司纷纷争相采用生成AI,通常迫于董事会、投资者和将AI实施视为存在性必需的媒体舆论的压力。无法阐明AI战略的首席执行官面临来自股东的尖锐质疑。结果是一波仓促、计划不周的部署,更多由害怕错过而非真正的业务需求驱动。
这些实施中的许多遵循了可预见的模式。公司会许可一个大型语言模型,构建原型聊天机器人或文档摘要工具,在受控环境中向管理人员演示,然后发现当真实用户处理真实任务和真实数据时,性能大幅下降。演示与生产之间的差距远大于供应商所暗示的。
自主代理:崩溃的承诺
AI行业中没有哪个部分经历过比自主代理更戏剧性的炒作修正。在整个2024年和2025年初,主要AI公司宣传了一个愿景,即软件代理可以独立完成复杂的工作任务,从预订旅行到撰写报告再到项目管理,且几乎无需人类监督。
Upwork的研究人员进行了一项研究,系统地测试了这一主张,他们在一系列标准工作任务上部署了由OpenAI、Google DeepMind和Anthropic的领先大型语言模型驱动的代理。结果令人清醒。这些代理无法独立完成许多简单任务。GPT-5和Gemini等模型在需要不止简单信息检索的任务上只实现了20%左右的完成率。
需要文化敏感性的任务证明特别有问题。营销文案生成、语言翻译、网站布局设计,以及任何需要理解受众、背景或美学判断的工作都完全失败了。这些代理可以生成表面上看起来合格的文本,但经不起推敲,产生的结果既平凡又文化不当,甚至在事实上也不可靠。
编码悖论
炒作修正中最令人惊讶的发现之一涉及AI编码助手,这曾是大型语言模型最备受推崇且广泛采用的应用之一。2025年发布的多项研究得出了一个意外结论:使用AI编码助手的开发人员实际上完成任务的速度比不使用它们的开发人员慢19%。
解释似乎涉及AI辅助编码的隐性成本。虽然这些工具加快了初始代码生成,但开发人员花费了大量额外时间审查、测试和纠正AI的输出。这些模型经常引入细微的错误、使用已弃用的API,或生成技术上可编译但违反架构约定或安全最佳实践的代码。写作节省的时间被验证和修复所花费的时间所抵消。
这一发现直接与AI公司的声称相矛盾,这些公司曾预测编码助手将带来巨大的生产力收益。由AI公司自身委托的多项著名研究显示了显著的时间节省,但这些通常是在具有简单、定义明确的任务的受控环境中进行的,而非真实软件开发所表现出的混乱、模糊的工作。
AGI海市蜃楼
AI炒作的大部分建立在人工通用智能的承诺或威胁之上,即一个假想的系统,能够在所有领域匹配或超越人类认知能力。在2023年和2024年期间,主要AI公司的领导人积极培养了AGI近在咫尺或迫在眼前的预期,时间框架从两年到五年不等。
到2025年末,这种叙事在很大程度上已经崩溃。著名的AI研究人员开始公开声称,突破性进步的时代已经结束,大型语言模型(驱动当前一代AI系统的技术)不是通往AGI的道路。曾推动模型性能快速改进的缩放法则已表现出触及认知缩放壁的迹象,其中简单地制造更大的模型并用更多数据训练只会产生递减回报。
技术原因越来越被理解。大型语言模型是在人类生成的文本上训练的复杂模式匹配系统。它们可以以令人印象深刻的方式重新组合和插值模式,但缺乏因果推理、世界模型和真正的理解,而这些正是真正通用智能的特征。生成流利文本与理解该文本的含义之间的差距仍然如往常一样宽,无论模型规模如何。
炒作的人类代价
AI炒作修正不仅仅是技术评估的抽象问题。膨胀的期望已经产生了真实的后果。做出过早承诺实施AI驱动自动化的公司面临了代价高昂的反转。被告知他们的工作将被AI消除的工人经历了长期的焦虑,只是为了发现他们的角色基本保持不变。围绕AI相关技能重塑教育的学生现在质疑他们被承诺的就业市场是否会实现。
也许最重要的是,在炒作周期中投入AI的资源代表了机会成本。投入到最小回报的AI项目中的资本、工程人才和组织注意力,本可以投资于其他技术或用于解决紧迫的非技术性问题。
修正中幸存的内容
炒作修正并不意味着人工智能是无用的。相反,通过剥离不切实际的期望,它阐明了该技术真正卓越的地方。AI工具对于特定、定义明确的任务是有效的:总结文件、翻译语言(具有人工审查)、加快大型数据集搜索、生成人类随后精化的初稿、识别结构化数据中的模式。
成功应用的共同主线是人类监督。AI最适合不是作为自主代理,而是作为增强人类判断的工具,处理例行和重复的工作,而人类提供该技术所缺乏的背景、创意和批判性思维。这是一个不如AGI戏剧化的愿景,但这是一个现实的愿景,它描述了一个价值数千亿美元的市场。
MIT技术评论的电子书主张,虽然对那些在最雄心勃勃的预测上下了重注的人来说令人痛苦,但后炒作阶段最终对该技术的长期发展是健康的。现实的期望导致更好的实施,进而导致真实的价值,维持继续研究所需的投资。2025年的伟大AI炒作修正最终可能不被记为技术的失败,而是建立它的行业必要的成熟。
本文基于MIT技术评论的报道。阅读原文。


