更强的模型表现更好,而用户并未察觉

Anthropic的一项内部实验表明,一种微妙但重要的AI不平等可能已经开始出现:由更强模型代理的人,能够在无人察觉差距存在的情况下获得更好的结果。根据所提供的原文,Anthropic在2025年12月进行了一项为期一周的内部市场实验,名为“Project Deal”,共有69名员工通过基于Claude的AI代理在Slack上买卖真实商品。

每位参与者获得100美元预算。在市场开放之前,Claude会采访志愿者,了解他们想买或想卖什么、价格偏好以及希望代理采用怎样的谈判风格。Anthropic随后根据这些输入生成定制系统提示词。之后,AI代理全程处理流程:撰写商品信息、寻找交易对象、提出报价、讨价还价并完成交易。人类只在最后一步重新介入,交换实物。

这项实验的关键设计是对参与者隐藏的。Anthropic并行运行了多个市场版本。在一些版本中,每位参与者都由Claude Opus 4.5代表,原文将其描述为当时Anthropic的前沿模型。在另一些版本中,参与者有50%的概率由Claude Haiku 4.5代表,这是公司最小的模型。

结果不只是技术性的,更是社会性的

根据原文,能力更强的Opus模型平均而言持续获得更好的价格并达成更多交易,而Haiku则表现较弱。与此同时,更激进的谈判指令并未带来统计上显著的结果差异。换句话说,模型能力比单纯告诉系统“更强硬地讨价还价”更重要。

这与企业采用AI时的一个常见直觉相悖,即组织有时会认为,提示词风格或表面行为决定了大部分价值。Anthropic的发现表明,底层模型能力可能比语气更重要。如果这一模式具有普遍性,那么智能体本身的质量可能会悄无声息地决定谁在数字交易中获得有利条件。

最引人注目的发现或许不是经济层面,而是感知层面。Anthropic称,由较弱的Haiku智能体获得客观上更差结果的用户,仍将自己的交易评价为与由Opus代表的用户一样公平。正是这种错位,被公司视为AI辅助决策中的一种“隐形不平等”。

这是一个影响深远的想法。传统形式的不平等通常体现在定价、可及性或服务质量上。Anthropic指出的则更难察觉:两个人可以同样满意,但其中一人实际上一直由机器给予了更差的代表。