मजबूत मॉडेल्सनी चांगली कामगिरी केली, आणि वापरकर्त्यांना फरक कळला नाही
Anthropic च्या एका अंतर्गत प्रयोगातून सूचित होते की AI असमानतेचे एक सूक्ष्म पण महत्त्वाचे रूप आधीच तयार होत असावे: मजबूत मॉडेल्सद्वारे प्रतिनिधित्व केलेल्या लोकांना, आसपासच्या कोणालाही त्या तफावतीची जाणीव न होता, अधिक चांगले परिणाम मिळू शकतात. उपलब्ध स्रोत मजकुरानुसार, Anthropic ने डिसेंबर 2025 मध्ये एक आठवडा चालणारा अंतर्गत बाजार “Project Deal” चालवला, ज्यात 69 कर्मचाऱ्यांनी Slack वर Claude-आधारित AI एजंटांचा वापर करून प्रत्यक्ष वस्तूंची खरेदी-विक्री केली.
प्रत्येक सहभागीस $100 बजेट देण्यात आले. बाजार उघडण्यापूर्वी, Claude ने स्वयंसेवकांना ते काय खरेदी किंवा विक्री करू इच्छितात, त्यांच्या किंमत पसंती काय आहेत, आणि त्यांच्या एजंटने कोणती वाटाघाटीची शैली वापरावी असे त्यांना वाटते, हे विचारले. त्यानंतर Anthropic ने त्या इनपुट्सवरून custom system prompts तयार केले. मग AI एजंटांनी प्रक्रिया सुरुवातीपासून शेवटपर्यंत हाताळली: लिस्टिंग लिहिणे, समोरची बाजू शोधणे, ऑफर देणे, घासाघीस करणे, आणि व्यवहार पूर्ण करणे. वस्तूंची देवाणघेवाण करण्यासाठी मानव शेवटीच मध्ये आले.
प्रयोगातील मुख्य वळण सहभागींना दाखवले गेले नाही. Anthropic ने बाजाराच्या समांतर आवृत्त्या चालवल्या. काही ठिकाणी प्रत्येक सहभागीला Claude Opus 4.5 ने प्रतिनिधित्व केले, ज्याचे वर्णन स्रोत मजकुरात त्या वेळी Anthropic चे frontier model असे केले आहे. इतर ठिकाणी सहभागींच्या प्रतिनिधित्वाची 50% शक्यता Claude Haiku 4.5 कडे होती, जो कंपनीचा छोटा मॉडेल आहे.
निकाल केवळ तांत्रिक नव्हता. सामाजिकही होता.
स्रोताप्रमाणे, अधिक सक्षम Opus मॉडेलने सरासरीने Haiku पेक्षा सातत्याने चांगल्या किमती मिळवल्या आणि अधिक व्यवहार पूर्ण केले. त्याच वेळी, अधिक आक्रमक वाटाघाटीच्या सूचना परिणामांमध्ये सांख्यिकीय दृष्ट्या महत्त्वाचा फरक निर्माण करू शकल्या नाहीत. म्हणजेच, केवळ अधिक कठोरपणे बोलणी करायला सांगणे नव्हे, तर मॉडेलची क्षमता अधिक महत्त्वाची ठरली.
हा परिणाम enterprise AI स्वीकारात आढळणाऱ्या एका सामान्य समजुतीच्या विरुद्ध आहे, ज्यात संस्था कधी कधी असे गृहीत धरतात की prompt style किंवा वरवरचे वर्तनच बहुतेक मूल्य ठरवेल. Anthropic चे निष्कर्ष सूचित करतात की मूलभूत मॉडेलची ताकद tone पेक्षा अधिक महत्त्वाची असू शकते. हा नमुना व्यापक झाला, तर एजंटची गुणवत्ता शांतपणे ठरवू शकते की डिजिटल व्यवहारात कोणाला अनुकूल अटी मिळतील.
सर्वात लक्षवेधी निष्कर्ष आर्थिकपेक्षा जाणिवेवर आधारित असू शकतो. Anthropic म्हणते की कमजोर Haiku एजंटांनी वस्तुनिष्ठदृष्ट्या वाईट निकाल मिळवले तरी, त्या वापरकर्त्यांनी त्यांच्या व्यवहारांना Opus प्रतिनिधित्व मिळालेल्या वापरकर्त्यांइतकेच न्याय्य रेट केले. यालाच कंपनी AI-सहाय्यित निर्णय प्रक्रियेत “invisible inequality” असे म्हणते.
हा महत्त्वाचा मुद्दा आहे. पारंपरिक असमानता बहुतेकदा किंमत, प्रवेश किंवा सेवेच्या गुणवत्तेत दिसते. Anthropic ज्या गोष्टीकडे निर्देश करते ती अधिक कठीण आहे: दोन लोक समानपणे समाधानी वाटू शकतात, पण मशीनने त्यांच्यासाठी काम करताना एकाला सातत्याने कमी दर्जाचे प्रतिनिधित्व दिले असू शकते.


