政府 AI 面临一组不同的问题
部署人工智能的竞赛往往默认的是私营部门的运行条件:持续的云连接、集中的基础设施、自由调动数据的广泛空间,以及对模型透明度有限的某种容忍度。根据 MIT Technology Review Insights 与 Elastic 联合发布的一份新报告,这些假设在政府环境中很快就会失效。
报告认为,公共部门组织面临一组独特的安全、治理和运营约束,这使得专门打造的小型语言模型,或 SLMs,比直接照搬标准的大模型路线更现实。重点并不是政府对 AI 不感兴趣,而是它们承受失误的空间更小、处理数据的灵活性更低,也更有理由要求对系统运行位置及其行为方式保持控制。
为什么小型模型正在获得关注
最明显的压力之一是数据安全。原文引用了一项 Capgemini 研究,发现全球 79% 的公共部门高管对 AI 的数据安全表示担忧。对于处理敏感记录、法律义务和关键任务系统的机构来说,这种担忧并不意外。在这类环境中,随意将信息跨网络传输或发送到外部服务可能根本不可行,或不可接受。
报告引用 Elastic AI 副总裁 Han Xiao 的话说,政府机构必须非常严格地限制发送到网络中的数据。这一约束改变了部署的计算方式。大型、依赖云端的系统或许功能强大,但如果它们需要机构无法接受的前提条件,就会在运营上变得难以信任。
小型语言模型之所以被视为答案,是因为它们可以受到更严格的控制、用途更聚焦,并且在受限环境中运行时可能更容易部署。吸引力不仅在于效率,更在于匹配度。一个围绕某项具体政府任务设计的小模型,可能比一个面向开放式用途的通用系统更容易治理。
运营挑战远比演示挑战更大
报告还强调了一个在 AI 讨论中常被忽略的观点:在真实机构中部署模型,与证明它在试点中有效,完全是两回事。政府机构需要的是能够在不同类型数据上可靠运行、能够在不发生运营中断的情况下扩展、并且即使在互联网连接受限、不稳定或不可用时也能继续工作的系统。
Xiao 在原文中认为,许多人低估了 AI 的运营挑战。这一观察在公共机构中尤其相关,因为业务连续性与原始能力同样重要。一个在现场条件下失效、无法验证,或依赖不可获得硬件的出色模型,并不是可行的公共部门解决方案。
基础设施约束同样重要。报告指出,政府组织可能难以获得用于训练和访问更复杂 AI 模型的 GPU。这不仅从政策层面,也从采购和算力层面,使更小、更有针对性的系统更具吸引力。



