শক্তিশালী মডেলরা ভালো করেছে, আর ব্যবহারকারীরা বুঝতে পারেননি
Anthropic-এর একটি অভ্যন্তরীণ পরীক্ষা ইঙ্গিত দিচ্ছে যে AI-ভিত্তিক বৈষম্যের একটি সূক্ষ্ম কিন্তু গুরুত্বপূর্ণ রূপ ইতিমধ্যেই তৈরি হতে পারে: শক্তিশালী মডেল দ্বারা প্রতিনিধিত্ব করা মানুষরা, আশেপাশের কেউ ফারাক টের না পেয়েই, আরও ভালো ফল পেতে পারেন। সরবরাহ করা উৎসপাঠ অনুযায়ী, Anthropic 2025 সালের ডিসেম্বর মাসে এক সপ্তাহব্যাপী “Project Deal” নামে একটি অভ্যন্তরীণ মার্কেটপ্লেস চালায়, যেখানে 69 জন কর্মী Slack-এর মাধ্যমে Claude-ভিত্তিক AI এজেন্ট ব্যবহার করে বাস্তব পণ্য কেনাবেচা করেন।
প্রতিটি অংশগ্রহণকারীকে 100 ডলারের বাজেট দেওয়া হয়। বাজার খোলার আগে Claude স্বেচ্ছাসেবীদের জিজ্ঞাসা করে তারা কী কিনতে বা বিক্রি করতে চান, তাদের দামের পছন্দ কী, এবং তাদের এজেন্ট কী ধরনের দর-কষাকষির ধরন ব্যবহার করবে। এরপর Anthropic সেই ইনপুট থেকে কাস্টম system prompt তৈরি করে। তারপর AI এজেন্টরাই পুরো প্রক্রিয়া শেষ পর্যন্ত পরিচালনা করে: তালিকা লেখা, কাউন্টারপার্টি খোঁজা, অফার করা, দরকষাকষি করা, এবং লেনদেন সম্পন্ন করা। মানুষ শুধু শেষে পণ্য বিনিময়ের জন্য ফিরে আসে।
পরীক্ষার প্রধান কৌশলটি অংশগ্রহণকারীদের কাছ থেকে লুকানো ছিল। Anthropic বাজারের সমান্তরাল সংস্করণ চালায়। কিছু ক্ষেত্রে প্রতিটি অংশগ্রহণকারীকে Claude Opus 4.5 প্রতিনিধিত্ব করে, যা উৎসপাঠে তখনকার Anthropic-এর frontier model হিসেবে বর্ণিত। অন্য ক্ষেত্রে অংশগ্রহণকারীদের 50% সম্ভাবনা ছিল Claude Haiku 4.5 দ্বারা প্রতিনিধিত্ব পাওয়ার, যা কোম্পানির ছোট মডেল।
ফলাফল শুধু প্রযুক্তিগত ছিল না। সামাজিকও ছিল।
উৎস অনুযায়ী, বেশি সক্ষম Opus মডেল গড়ে Haiku-এর তুলনায় ধারাবাহিকভাবে ভালো দাম আদায় করেছে এবং বেশি চুক্তি সম্পন্ন করেছে। একই সঙ্গে, আরও আক্রমণাত্মক দর-কষাকষির নির্দেশনা ফলাফলে পরিসংখ্যানগতভাবে উল্লেখযোগ্য কোনো পার্থক্য আনেনি। অর্থাৎ, কেবল জোরালোভাবে দর কষতে বলা নয়, মডেলের সক্ষমতাই বেশি গুরুত্বপূর্ণ ছিল।
এই ফলাফল enterprise AI গ্রহণের একটি সাধারণ ধারণার বিপরীতে যায়, যেখানে সংস্থাগুলো কখনও কখনও ধরে নেয় prompt style বা ওপরিভাগের আচরণই মূল্যের বেশিরভাগ নির্ধারণ করবে। Anthropic-এর ফলাফল ইঙ্গিত দেয় যে অন্তর্নিহিত মডেল শক্তি tone-এর চেয়ে বেশি গুরুত্বপূর্ণ হতে পারে। যদি এই ধারা সর্বত্র প্রযোজ্য হয়, তাহলে এজেন্টের গুণমানই নীরবে নির্ধারণ করতে পারে, ডিজিটাল লেনদেনে কে অনুকূল শর্ত পাবে।
সবচেয়ে উল্লেখযোগ্য ফলাফল অর্থনৈতিকের চেয়ে উপলব্ধিগত হতে পারে। Anthropic বলছে, দুর্বল Haiku এজেন্ট দ্বারা প্রতিনিধিত্ব পাওয়া ব্যবহারকারীরা বাস্তবে খারাপ ফল পেলেও তাদের লেনদেনকে Opus-প্রাপ্ত ব্যবহারকারীদের মতোই ন্যায্য বলে মূল্যায়ন করেছেন। এটাই কোম্পানি AI-সহায়িত সিদ্ধান্ত গ্রহণে “invisible inequality” বলে চিহ্নিত করছে।
এটি একটি গুরুত্বপূর্ণ ধারণা। প্রচলিত বৈষম্য সাধারণত দাম, প্রাপ্যতা বা সেবার মানে দৃশ্যমান হয়। Anthropic যা দেখাচ্ছে তা আরও কঠিন: দুইজন মানুষ সমানভাবে সন্তুষ্ট মনে করতে পারেন, অথচ তাদের পক্ষে কাজ করা মেশিনটি এক জনকে ধারাবাহিকভাবে কম মানের প্রতিনিধিত্ব দিয়েছে।


