浏览器设置变成了 AI 信任问题

Google 的 Chrome 浏览器内置了一个设备端 Gemini Nano AI 模型,许多桌面用户的电脑上可能已经有了它,而围绕这一事实的最新反弹,与其说是出于原始能力,不如说是出于预期和控制。根据所提供的报道,这个本地模型大约占用 4 GB 空间,可以通过 Chrome 的设置禁用;如果用户直接删除该文件而不是在浏览器中关闭该功能,它还可能悄悄重新出现。

这种组合让问题远远超出了普通产品偏好之争。对许多用户来说,核心问题不是设备端 AI 是否有正当用途,而是一个大型浏览器是否应该在他们的电脑上放入一个相当大的 AI 模型,却没有他们认为与这一变化相称的可见度。

用户可以怎么做

报道给出了禁用该功能的具体步骤。在桌面版 Chrome 中,用户可以打开“更多”菜单,进入设置,然后进入系统,并关闭“设备端 AI”。Google 告诉 WIRED,一旦该功能被禁用,模型将不再下载或更新。公司还表示,如果设备资源不足,系统会自动卸载该模型。

这些细节很重要,因为它们将当前争议与“该模型无法移除”的说法区分开来。问题不在于缺乏技术控制,而在于许多用户一开始并不知道模型已经存在,只是在新一轮以隐私为焦点的报道和讨论中才得知此事。

Google 为什么把 Gemini Nano 放进 Chrome

所提供的来源文本称,Google 将 Gemini Nano 集成到 Chrome 中,是为了支持设备端 AI 欺诈检测功能,并为开发者提供集成 AI 相关 API 的方式,同时尽可能将数据保留在用户设备上,而不是发送到云端。这是 Google 对这一设计选择的功能性解释。

这其中确实存在逻辑。设备端模型可以降低延迟,保留更多本地的数据流控制,并支持无需每一步分析都远程完成的安全功能。公司还将这些功能与 Chrome 的 AI Mode 区分开来,报道指出后者并不使用本地的 Gemini Nano 模型。

换句话说,Google 并没有把这个模型描述为装饰性或实验性的存在,而是将其与具体的浏览器能力和开发者工具绑定在一起。

为什么反弹依然重要

即便这一理由合理,用户的反应仍凸显出消费技术中的一个更广泛趋势:AI 功能正在迅速叠加到人们早已当作基础设施来使用的产品中。许多用户不会逐条阅读浏览器更新说明,他们只会期待核心软件保持清晰可理解,尤其是在某项变化引入一个带来隐私和存储影响的大型本地组件时。

报道指出,Google 早已公开宣布了这一集成,并且从 2 月起一直在推出 On-device AI 开关。但公开宣布并不等于有效告知。对于那些把模型视为意外发现,而不是知情同意的用户来说,问题就变成了信任和产品治理。

这也是为什么这则新闻的文化意义超出了设置菜单本身。浏览器 AI 已不再是一个纯粹的设想型功能类别。它正在成为主流软件默认配置的一部分,而每一次这样的部署,都在测试用户在要求更简单的控制和更清晰的披露之前,愿意容忍多少隐藏复杂性。

更大的意义

如果只把 Gemini Nano 放进 Chrome 看作一个技术设置,它的故事其实并不大。但如果把它视为 AI 正在如何嵌入日常计算的信号,它就变得更重要了。一个 4 GB 的模型进入全球最知名的浏览器,这不只是一次功能上线,而是本地 AI 系统被打包进通用软件的新版常态的一部分。

因此,这场反弹不应仅仅被简化为对 AI 的恐惧。它反映出一种更持久的担忧:用户想知道自己的机器上正在运行什么、为什么会在那里,以及如何在不与产品对抗的情况下把它关掉。Google 已经提供了禁用该模型的路径,这解决了眼前的实际问题。但来源文本记录下来的反应表明,下一阶段的消费级 AI 普及,不仅取决于这些系统能做什么,也取决于公司是否以用户认为透明且适度的方式引入它们。

本文基于 Wired 的报道。阅读原文

Originally published on