النماذج الأقوى تفوقت، والمستخدمون لم يلاحظوا

تشير تجربة داخلية أجرتها Anthropic إلى أن شكلاً خفيًا لكنه مهم من عدم المساواة في الذكاء الاصطناعي قد يكون بدأ بالفعل في الظهور: فالأشخاص الذين تمثّلهم نماذج أقوى يمكنهم تحقيق نتائج أفضل من دون أن يلاحظ من حولهم وجود فجوة. ووفقًا للنص المصدر المرفق، أجرت Anthropic في ديسمبر 2025 سوقًا داخلية استمرت أسبوعًا تحت اسم “Project Deal”، استخدم فيها 69 موظفًا وكلاء ذكاء اصطناعي قائمين على Claude لشراء وبيع سلع حقيقية عبر Slack.

حصل كل مشارك على ميزانية قدرها 100 دولار. وقبل افتتاح السوق، أجرى Claude مقابلات مع المتطوعين لمعرفة ما يرغبون في شرائه أو بيعه، وتفضيلاتهم السعرية، وأسلوب التفاوض الذي يريدون أن يتبعه وكيلهم. ثم استخدمت Anthropic هذه المدخلات لتوليد أوامر نظام مخصصة. بعد ذلك، تولى وكلاء الذكاء الاصطناعي العملية من البداية إلى النهاية: كتابة الإعلانات، والعثور على الأطراف المقابلة، وتقديم العروض، والمساومة، وإتمام الصفقات. ولم يتدخل البشر إلا في النهاية لتبادل السلع.

وكانت اللفة التجريبية الأساسية مخفية عن المشاركين. فقد شغّلت Anthropic نسخًا متوازية من السوق. في بعضها، كان كل مشارك ممثلاً بواسطة Claude Opus 4.5، الذي وصفه النص المصدر بأنه نموذج Anthropic الرائد في ذلك الوقت. وفي نسخ أخرى، كانت هناك فرصة بنسبة 50% لأن يكون المشارك ممثلاً بواسطة Claude Haiku 4.5، وهو أصغر نماذج الشركة.

النتيجة لم تكن تقنية فقط، بل اجتماعية أيضًا

وفقًا للمصدر، حصل نموذج Opus الأكثر قدرة باستمرار على أسعار أفضل وأبرم صفقات أكثر في المتوسط من Haiku. وفي الوقت نفسه، فإن تعليمات التفاوض الأكثر عدوانية لم تؤدِّ إلى فرق ذي دلالة إحصائية في النتائج. وبعبارة أخرى، كانت قدرة النموذج أهم من مجرد إخبار النظام بأن يفاوض بقوة أكبر.

وهذا يتعارض مع حدس شائع في تبني الذكاء الاصطناعي داخل المؤسسات، حيث تفترض بعض الجهات أحيانًا أن أسلوب التوجيه أو السلوك الظاهري سيحدد معظم القيمة. وتشير نتائج Anthropic إلى أن قوة النموذج الأساسية قد تكون أهم من النبرة. وإذا تعمم هذا النمط، فقد تحدد جودة الوكيل نفسه بهدوء من يحصل على شروط مواتية في المعاملات الرقمية.

ولعل النتيجة الأكثر لفتًا للانتباه ليست اقتصادية بل إدراكية. تقول Anthropic إن المستخدمين الذين حصلت وكلاؤهم الأضعف من Haiku على نتائج أسوأ موضوعيًا قيّموا معاملاتهم على أنها عادلة بالقدر نفسه الذي قيّم بها المستخدمون الذين مثّلهم Opus صفقاتهم. وهذا التباين هو ما تصفه الشركة بأنه نوع من “عدم المساواة غير المرئية” في اتخاذ القرار بمساعدة الذكاء الاصطناعي.

هذه فكرة ذات تبعات كبيرة. فالصور التقليدية لعدم المساواة تكون غالبًا مرئية في التسعير أو الوصول أو جودة الخدمة. أما ما تشير إليه Anthropic فهو أصعب رصدًا: يمكن لشخصين أن يشعرًا بالرضا نفسه، بينما يكون أحدهما قد تلقى تمثيلًا أسوأ بصورة منهجية من الآلة التي تصرفت نيابة عنه.