人们如何评价 AI 生成沟通中的一个耐人寻味的矛盾

随着生成式 AI 进入日常写作,一个基本的社会问题变得越来越难回答:当一条私人消息是由机器写成时,人们会如何反应?Fast Company 讨论的两项新实验表明,答案比许多人想象的更为矛盾。人们在知道个人消息使用了 AI 时,会强烈惩罚这类内容;但即使他们正在阅读的文本实际上是模型生成的,他们通常也不会默认怀疑它来自 AI。

这项研究在美国招募了 1,300 多名年龄介于 18 岁到 84 岁之间的参与者,考察了收信人如何根据通过电子邮件或短信发送的道歉等消息来评价发送者。参与者被分成四组。有些人看到消息时没有任何作者信息。另一些人则被告知这些消息肯定由人类撰写、肯定由 AI 生成,或者两者皆有可能。

结果显示,只要 AI 作者身份被披露,就会出现明显的社会惩罚。当人们知道一条消息是 AI 生成时,他们会更负面地评价发送者,使用“懒惰”“不真诚”“缺乏用心”等词语。相反,当他们以为同样的文字出自人类时,则会把它描述为真诚、感激、周到。

最引人注意的是:大多数人似乎并不怀疑

最令人意外的结果并不是披露 AI 会改变看法,而是未披露的 AI 并不会。那些没有得到作者信息的参与者形成的印象,和被明确告知消息是人类撰写的人几乎一样正面。

这一发现指出了当前沟通环境中的一个重要不对称性。很多人在 AI 使用被看见后愿意惩罚它,但他们还没有在个人写作中形成基本的怀疑态度。在日常生活里,收件人仍可能假定那些带有真挚情感色彩的消息体现的是发信人自己的努力,即便 AI 系统已经能够生成细致、情感上合宜的文本。

研究人员似乎原本预期,公众对生成式 AI 的熟悉程度不断提升,可能已经让人们变得更警惕。结果恰恰相反,默认假设仍然高度偏向人类。就实际影响而言,这意味着只要 AI 的作用没有被披露,它就能在完全不被意识到的情况下影响社会判断。

高频 AI 用户也没有太大不同

随后,研究人员测试了对生成式 AI 的熟悉程度是否会改变参与者的反应。他们比较了重度用户、轻度用户,以及很少或从不使用这项技术的人。结果再次推翻了一个常见假设。

频繁使用者确实比不常使用者对已披露的 AI 使用惩罚得稍轻一些。但在作者身份未明确时,他们并没有表现出明显更强的怀疑。即使是隔天就会使用生成式 AI 的人,也往往会认为这些消息是由人写的。不同使用群体之间的基本模式一致:披露会引发负面反应,但不披露通常会保留正面印象。

这很重要,因为它表明,仅仅接触 AI 可能还不足以改变围绕 AI 写作沟通的社会规范。人们自己可以使用这些工具,却仍然在评价收到的信息时没有把它们考虑进去。至少目前,默认把作者视为人类的习惯似乎仍然很强。

为什么这种社会惩罚很重要

这项研究的意义并不止于学术好奇。人际和职业关系会被人们如何解读书面努力所塑造。一封周到的道歉、一张温暖的感谢便条、一则措辞谨慎的更新,或是一条得体的工作消息,都可能影响收信人对发送者的看法。人们往往把消息中体现出的时间和用心,视为真诚、可信或能力的证据。

如果 AI 生成的文本在披露后会被更严厉地评价,那么当这种使用变得可见时,依赖 AI 的人就可能面临声誉成本。与此同时,如果未披露的 AI 消息继续像人类写的一样获得正面反应,这项技术就可能在悄无声息中重塑人际沟通,而期待却没有同步变化。

这带来了新的张力。个人可能有实际理由使用 AI,尤其是在处理困难或情绪敏感的信息时。但这样做的社会含义仍未定型。这些实验表明,许多收信人仍然以一种较旧的视角解读私人写作,在这种视角里,消息质量被默认反映了直接的人类劳动。

一个尚无定论的披露问题

这些发现还提出了一个更复杂的政策和礼仪问题:人们是否应该在私人沟通中披露 AI 辅助?Fast Company 转述的这项研究并没有直接回答这个问题,但它确实显示了在当前社会条件下,披露会带来的代价。一旦读者知道 AI 参与其中,他们对发送者的评价就会降低,即便文本本身没有任何变化。

这为建立透明度规范提供了一个并不牢固的基础。如果披露会损害印象,而不披露又不会被察觉,人们就会被强烈激励对 AI 参与保持沉默。随着时间推移,这可能会拉大消息的生产方式与其被解读方式之间的差距。

它也可能让职场沟通、约会、友谊以及其他书面信息带有情感或声誉分量的场景变得更复杂。模型越强大,就越容易大规模生成令人信服的文本。但这项研究表明,社会期待还没有跟上这种技术现实。

这对 AI 采用下一阶段意味着什么

最重要的结论是,AI 写作的使用不仅是一个技术问题,也是一种社会问题。这项技术已经能够生成许多读者会正面接受的信息。但一旦其参与被揭示,同一条信息就可能被判断为不够真诚。这种落差很可能会塑造 AI 在日常沟通中的采用方式。

就目前而言,公众似乎正处于一个不稳定的过渡阶段。人们知道 AI 存在,也有很多人自己在使用它,但他们仍然常常把私人写作理解为直接出自另一个人之手。只要这种假设没有改变,AI 辅助沟通就会持续造成生产与感知之间的不匹配。

这正是这些实验的重要性所在。它们表明,生成式 AI 的下一阶段,不仅会由模型能写出什么来定义,还会取决于社会规范、披露标准以及对真实性的期待,是否能足够快地进化,去匹配工具已经在做的事情。

  • 当人们知道一条私人消息是 AI 撰写时,他们对它的评价,比对同样内容但被认为是人类写的消息更负面。
  • 当作者身份没有披露时,大多数人会默认消息来自人类,并作出正面反应。
  • 即使是频繁使用 AI 的人,也并没有因此在默认情况下变得更怀疑,这表明社会规范落后于技术能力。

本文基于 Fast Company 的报道。阅读原文

Originally published on fastcompany.com