より強いモデルは成果が良く、ユーザーは気づかなかった
Anthropicの社内実験は、すでに微妙だが重要なAI格差の形が生まれつつある可能性を示している。つまり、より強いモデルに代理された人は、自分の周囲の誰にもその差が見えないまま、より良い結果を得られるということだ。提供された原文によれば、Anthropicは2025年12月に「Project Deal」と呼ばれる1週間の社内市場を実施し、69人の社員がClaudeベースのAIエージェントを使ってSlack上で実物の商品を売買した。
各参加者には100ドルの予算が与えられた。市場が開く前に、Claudeは参加希望者に対して、何を買いたいか/売りたいか、価格の希望、そして自分のエージェントにどのような交渉スタイルを取ってほしいかを聞き取った。Anthropicはそれらの入力をもとに、個別のシステムプロンプトを生成した。その後、AIエージェントが一連の作業を最後まで担当した。出品文の作成、相手先の発見、オファー、値下げ交渉、そして取引の成立だ。人間は最後に商品を受け渡す段階でだけ再登場した。
この実験の重要な工夫は、参加者に隠されていた点にある。Anthropicは市場を並行して複数バージョン運用した。一部では、すべての参加者がClaude Opus 4.5に代理されていた。原文ではこれが当時のAnthropicのフロンティアモデルと説明されている。別のバージョンでは、参加者が50%の確率でClaude Haiku 4.5に代理されていた。これは同社の最小モデルだ。
結果は技術的なだけではなく、社会的でもあった
原文によると、より能力の高いOpusは平均してHaikuよりも高い価格を獲得し、より多くの取引を成立させた。一方で、より強い交渉指示を与えても、結果に統計的に有意な差は出なかった。つまり、システムに「もっと強く交渉せよ」と指示することより、モデルそのものの能力のほうが重要だったのだ。
これは、企業のAI導入でよくある直感に反する。組織は、プロンプトの文体や表面的な振る舞いが価値の大半を決めると考えがちだ。しかしAnthropicの結果は、ベースとなるモデルの力のほうが語調より重要かもしれないことを示している。もしこの傾向が一般化すれば、エージェントそのものの質が、デジタル取引で誰が有利な条件を得るかを静かに左右することになる。
最も印象的なのは、経済面というより認識面の発見かもしれない。Anthropicは、弱いHaikuエージェントに代理されたユーザーが客観的にはより悪い結果を得ていたにもかかわらず、Opusに代理されたユーザーと同じくらい公平だと評価していたと述べている。この認識のズレこそ、同社がAI支援意思決定における「見えない不平等」と呼ぶものだ。
これは重大な示唆を含む。従来の不平等は、価格、アクセス、サービス品質として見えやすい。Anthropicが指摘しているのはそれより把握しにくいものだ。つまり、2人が同じように満足しているように感じていても、そのうち1人は自分の代わりに動く機械から一貫して不利な代理を受けている可能性がある。



