“AI 会解决一切”最有力的批评并不是反技术
人工智能正越来越多地被包装成解决教育、农业、就业和公共服务供给问题的方案。这种叙事之所以诱人,是因为它把混乱的社会失灵压缩成了一个可控的工程挑战。如果制度运转缓慢、资金不足或支离破碎,一个反应迅速的模型承诺几乎会显得难以抗拒。
但 Rest of World 发表的一篇评论认为,这种框架忽略了社会系统的核心现实:仅有技术能力是不够的。即使是复杂的 AI 工具,也需要人类支持、制度能力和地方问责,才能真正产生影响,而不仅仅是生成令人印象深刻的演示。
这篇文章由康奈尔大学研究人员 Deepak Varuvel Dennison 和 Aditya Vashistha 撰写,并没有否认 AI 的真实潜力。它明确承认,AI 在私营和公共部门都展现出越来越多的生产力提升迹象和吸引力。它的论点更狭窄,也更重要:把 AI 部署到服务不足的社区,并不等于解决这些社区的问题。
AI 造福社会叙事中的内在矛盾
这篇评论指出了一个结构性张力。AI 经常被描述为解决不平等、排斥和服务缺口的工具。然而,这些系统本身却建立在剥削性的供应链、集中的权力以及既有不平等之上。借鉴《AI Snake Oil》和《Atlas of AI》等著作的主题,作者将 AI 定位为一种社会技术系统,而非中性的软体层,它建立在自然资源、人类劳动和根深蒂固的制度之上。
这一点很重要,因为“AI 造福社会”项目最常瞄准的社区,也往往是最可能承担设计不当干预成本的社区。一个从远处看似高效的模型,如果忽视语言、信任、可及性、治理,或忽视执行其输出所需的人类中介,在本地仍然可能失败。
因此,核心问题不是 AI 能否帮忙,而是需要具备哪些条件,它才能以持久且可问责的方式发挥作用。
为什么制度比演示更重要
作者研究了部署于发展中世界、用于解决社会问题的 8 个 AI 系统。根据这里可见的源文本,这篇文章的核心结论是:只有当 AI 与人类支持和制度能力结合时,它才会有效。现实中,这意味着需要受过培训的工作人员、服务交付流程、社区关系,以及能够对技术所揭示的问题作出响应的组织。
这一点至关重要,因为许多 AI 部署的评价标准是模型表现,而不是下游结果。某个系统也许能够高效地总结、分类或预测,但如果没有任何机构可以根据这些信息采取行动,它就仍然无法改善任何人的生活。在社会场景中,最后一公里往往就是全部故事。
设想一下,如果某个 AI 工具识别出了需求,却没有人员、资金或法律授权去响应。系统仍然可以生成仪表盘,但结果只是行政表演,而不是问题真正得到解决。这篇文章认为,技术承诺与执行能力之间的鸿沟,正是许多 AI 造福社会项目悄然失败的地方。







.jpg&w=3840&q=75)