मजबूत मॉडलों ने बेहतर प्रदर्शन किया, और उपयोगकर्ताओं ने फर्क नहीं पहचाना
Anthropic के एक आंतरिक प्रयोग से संकेत मिलता है कि AI असमानता का एक सूक्ष्म लेकिन महत्वपूर्ण रूप पहले ही उभर सकता है: मजबूत मॉडलों द्वारा प्रतिनिधित्व किए गए लोग, आसपास के किसी को यह एहसास कराए बिना, बेहतर नतीजे हासिल कर सकते हैं। उपलब्ध स्रोत पाठ के अनुसार, Anthropic ने दिसंबर 2025 में एक सप्ताह लंबा आंतरिक बाज़ार “Project Deal” चलाया, जिसमें 69 कर्मचारियों ने Slack पर Claude-आधारित AI एजेंटों का इस्तेमाल करके वास्तविक वस्तुओं की खरीद-बिक्री की।
हर प्रतिभागी को 100 डॉलर का बजट मिला। बाज़ार खुलने से पहले, Claude ने स्वयंसेवकों से पूछा कि वे क्या खरीदना या बेचना चाहते हैं, उनकी कीमत संबंधी प्राथमिकताएं क्या हैं और वे अपने एजेंट से किस तरह की बातचीत शैली चाहते हैं। Anthropic ने फिर उन इनपुट्स से कस्टम सिस्टम प्रॉम्प्ट बनाए। इसके बाद AI एजेंटों ने पूरी प्रक्रिया संभाली: सूचियां लिखना, संभावित पक्षों को ढूंढना, ऑफर देना, मोलभाव करना और सौदे पूरे करना। इंसानों ने अंत में केवल सामान का आदान-प्रदान करने के लिए हस्तक्षेप किया।
प्रयोग का मुख्य मोड़ प्रतिभागियों से छिपा हुआ था। Anthropic ने बाज़ार के समानांतर संस्करण चलाए। कुछ में हर प्रतिभागी को Claude Opus 4.5 द्वारा प्रतिनिधित्व किया गया, जिसे स्रोत पाठ में उस समय Anthropic का फ्रंटियर मॉडल बताया गया है। दूसरों में, प्रतिभागियों के पास 50% संभावना थी कि उनका प्रतिनिधित्व Claude Haiku 4.5 करे, जो कंपनी का सबसे छोटा मॉडल है।
नतीजा सिर्फ तकनीकी नहीं था। सामाजिक भी था।
स्रोत के अनुसार, अधिक सक्षम Opus मॉडल ने औसतन Haiku की तुलना में लगातार बेहतर कीमतें हासिल कीं और अधिक सौदे पूरे किए। साथ ही, अधिक आक्रामक बातचीत निर्देशों से नतीजों में सांख्यिकीय रूप से महत्वपूर्ण सुधार नहीं हुआ। दूसरे शब्दों में, केवल ज़्यादा सख्ती से मोलभाव कराने से नहीं, बल्कि मॉडल की क्षमता से फर्क पड़ा।
यह परिणाम एंटरप्राइज़ AI अपनाने की एक आम धारणा के खिलाफ जाता है, जहां संगठन कभी-कभी मान लेते हैं कि प्रॉम्प्ट का अंदाज़ या सतही व्यवहार ही अधिकतर मूल्य तय करेगा। Anthropic के निष्कर्ष सुझाते हैं कि आधारभूत मॉडल की ताकत स्वर से अधिक महत्वपूर्ण हो सकती है। यदि यह पैटर्न व्यापक रूप से लागू होता है, तो एजेंट की गुणवत्ता चुपचाप तय कर सकती है कि डिजिटल लेनदेन में किसे बेहतर शर्तें मिलेंगी।
सबसे चौंकाने वाला निष्कर्ष आर्थिक से अधिक धारणा-आधारित हो सकता है। Anthropic का कहना है कि जिन उपयोगकर्ताओं के कमजोर Haiku एजेंटों ने वस्तुगत रूप से खराब नतीजे दिए, उन्होंने भी अपने लेनदेन को उतना ही निष्पक्ष रेट किया जितना Opus द्वारा प्रतिनिधित्व किए गए उपयोगकर्ताओं ने। यही असमानता कंपनी “AI-सहायता प्राप्त निर्णय-निर्माण में अदृश्य असमानता” के रूप में चिन्हित करती है।
यह एक महत्वपूर्ण विचार है। पारंपरिक असमानताएं अक्सर कीमत, पहुंच या सेवा-गुणवत्ता में दिखाई देती हैं। Anthropic जिस बात की ओर इशारा कर रहा है, वह अधिक कठिन है: दो लोग समान रूप से संतुष्ट महसूस कर सकते हैं, जबकि मशीन उनके लिए लगातार अलग स्तर की प्रतिनिधित्व कर रही हो।



