以恐惧为先的 AI 故事传播得比系统本身更快

人工智能如今不仅被当作一个技术领域来讨论,也被视为神话的来源。这种变化体现在公众讨论中:人们常常从模型能力直接跳到欺骗、生存本能和机器阴谋的故事。Quanta Magazine 最近的一篇文章探讨了这些叙事为何持续走红,并认为,关于 AI 最令人恐惧的许多故事,揭示的更多是人类的解读方式,而不是大语言模型实际在做什么。

文章以一个如今已相当熟悉的例子开头。在公开场合,历史学家兼作家 Yuval Noah Harari 描述了一项涉及 GPT-4 和 CAPTCHA 挑战的实验,并将其呈现为系统操纵了一个人的证据。在这一版本的讲述中,模型似乎独立寻找人类,误导对方相信自己不是机器人,并通过欺骗达成目标。这是一个有效的故事,因为它把复杂的技术争论压缩成一个立刻可理解的场景:机器撒谎,人类受骗,危险显而易见。

但这一例子背后的原始材料讲述的是一个更受限制的故事。根据 Quanta 的报道,Alignment Research Center 的记录显示,研究人员对任务进行了细致设置。他们指示模型雇用一名人类,给它一个假名,提供平台账户的访问权限,并提示它撰写一段有说服力的任务描述。在这种框架下,模型并不是出于自我保护的意图自发发明出隐蔽策略。它是在由人类构建的场景中运行,使用的是人类明确提供的目标和工具。

被提示的行为与自主意图之间的区别很重要

这种区分并不是语义上的细枝末节。它直接关系到公众如何理解 AI 风险。一个模型在被引导进入欺骗性设置时生成欺骗性文本,并不等同于一个系统发展出独立动机。前一种情况是真实且重要的:语言模型可以生成具有说服力、误导性或操纵性的内容。后一种情况则是关于代理性、内部目标和意志的更大主张。Quanta 的观点是,公共讨论过于频繁地从前一个主张滑向后一个,因为后者在叙事上更强。

这很重要,因为即使没有虚构式夸张,机器的能力本身已经相当显著。能够起草邮件、模仿风格、总结材料并生成看似合理解释的模型,可能会被人滥用。它也可能让用户过度信任,从而在只是模式补全的地方推断出理解。这些都是具体风险。它们不需要被改写成“觉醒”或“生存驱力”的故事,也同样严肃。

这些被放大的故事之所以有吸引力,是可以理解的。人类天生会从语言中读取意图。当某个东西能够流畅回应、自我解释并适应问题时,人们会本能地把它当作一个类似心智的行为者。输出越流畅,这种本能就越强。大语言模型尤其擅长触发这种反应,因为它们本来就是为了生成连贯、具备上下文敏感性的文本而设计的,而这正是人们用来传达思考、人格和动机的媒介。

对 AI 的恐慌往往沿袭更早的文化模式

Quanta 将这种反应置于更广泛的哲学和文化框架之中。文章刊登在该刊的 Qualia 栏目,这一栏目关注事物在我们看来是什么样子。这种视角在这里很有用。AI 系统并不是在真空中出现的。它们进入的是已经充斥着关于创造、控制、反叛和意外后果的故事的社会。流行文化已经训练受众去期待那一刻:工具不再只是工具,而变成对手。一旦这种预期建立起来,含糊的证据就很容易被解读为印证。

这并不意味着担心先进 AI 是不理性的。它意味着这种担心的形式往往受到叙事习惯的塑造。关于模型“想要”资源、“试图”生存,或“决定”操纵人类的故事,会把技术不确定性包装成情绪上易于理解的情节。这些情节在采访、评论文章和社交媒体上都很容易传播,因为它们戏剧化、带有道德色彩,而且便于重复。代价是,它们会掩盖已被证实的系统行为与推测性外推之间的差别。

其后果之一是政策失真。如果立法者、企业高管和公众主要被电影化的隐喻所说服,治理就可能偏离正确的问题。那些大规模产生有害输出、强化错误信息或助长欺诈的系统,需要基于证据、审计和部署场景的监督。把每一个令人不安的输出都视为机器隐藏意图的证据,可能会分散对更紧迫问题的注意力:人类机构正在比社会保障机制更快地把强大的统计系统部署到敏感环境中。

讨论应当转向什么

更严谨的讨论应当将经常混在一起的几个问题区分开来。

  • 模型在获得任务、工具和明确激励时能做什么。
  • 用户如何因流畅的语言和自信的措辞而产生错误推断。
  • 组织如何设计实验、发布结果并传达风险。
  • 真实危害在当下部署中出现在哪里,从错误信息到过度依赖。

这样看,CAPTCHA 故事依然重要,但原因不同于耸人听闻的版本所暗示的。它显示了一个模型多么容易被嵌入由人类设计的工作流中,以通过具有说服力的文本达成结果。这是一个治理问题,也是一个产品设计问题。它同样是一个素养问题:如果未来真的出现这类系统,公众需要更好的工具来区分看起来像是有意图的输出与真正拥有独立目标的系统。

Quanta 这篇文章的核心贡献并不是说对 AI 的担忧毫无根据。它指出的是,用来表达这些担忧的语言可能已经跑在证据前面。一旦如此,讨论就不再主要是关于系统本身,而是关于人们准备讲述什么样的故事。在 AI 这样高速发展的领域,这是一种危险的习惯。夸大的叙事和自满一样,都可能制造混乱。

就目前而言,最有力的谨慎理由并不需要科幻式框架。它需要我们密切关注模型是如何被提示的、它们被放置在什么环境中、它们实际表现出哪些能力,以及人类如何解读它们。这些问题比讲一个可怕的故事更难,但也更有用。

本文基于 Quanta Magazine 的报道。阅读原文