عندما تبدأ أهداف تبني الذكاء الاصطناعي في تشكيل السلوك

تفيد تقارير بأن موظفي Amazon يستخدمون أداة داخلية للذكاء الاصطناعي لأتمتة المهام غير الأساسية من أجل رفع معدل استخدامهم الظاهري لأنظمة الذكاء الاصطناعي الخاصة بالشركة. وتُسمى هذه الممارسة داخل الشركة، وفقًا لتغطية نشرتها Ars Technica استنادًا إلى Financial Times، «tokenmaxxing». والاسم ساخر، لكن المشكلة الأساسية خطيرة: عندما تركز الإدارة على تبني الذكاء الاصطناعي كمؤشر، فقد يبدأ الناس في تحسين المؤشر بدلًا من تحسين العمل المفيد.

وبحسب التقرير، نشرت Amazon على نطاق واسع منتجًا داخليًا يُدعى MeshClaw يتيح للموظفين إنشاء وكلاء ذكاء اصطناعي مرتبطين ببرامج العمل وجعلهم ينفذون المهام نيابة عن المستخدم. وقال عدة موظفين إن زملاءهم كانوا يستخدمون النظام لتوليد نشاط إضافي وغير ضروري في الذكاء الاصطناعي بهدف زيادة استهلاك الرموز، وهي وحدات البيانات التي تعالجها النماذج.

الحوافز وراء هذا السلوك

يقول المقال إن Amazon وضعت أهدافًا لاستخدام أكثر من 80% من المطورين للذكاء الاصطناعي كل أسبوع، وبدأت تتبع استهلاك رموز الذكاء الاصطناعي على لوحات ترتيب داخلية في وقت سابق من هذا العام. ورغم أن Amazon قالت للموظفين، بحسب التقارير، إن إحصاءات الرموز لن تُستخدم في تقييم الأداء، قال عدة موظفين إنهم يعتقدون أن المديرين كانوا يراقبون البيانات على أي حال.

وهذا بالضبط نوع الغموض الذي يولد الاستخدام الاستعراضي. إذا اعتقد العاملون أن سلوكًا مقاسًا قد يؤثر في مكانتهم، فسيسعون غالبًا إلى تعظيم الإشارة المرئية، حتى عندما تكون القيمة الفعلية للنشاط ضئيلة أو معدومة. وفي هذه الحالة، قد يعني ذلك استخدام الذكاء الاصطناعي لتنفيذ مهام لم تكن تحتاج إلى أتمتة، أو توليد نشاط أساسًا لكي تعكس المقاييس مستوى المشاركة.

وينقل التقرير عن أحد الموظفين قوله إن هناك «ضغطًا كبيرًا جدًا» لاستخدام الأدوات، وعن آخر قوله إن المديرين كانوا ينظرون إلى بيانات الاستخدام. سواء أثرت هذه الإحصاءات رسميًا في المراجعات أم لا، فإن مجرد الاعتقاد بأنها مهمة قد يكون كافيًا لإعادة تشكيل السلوك في مكان العمل. فالمقاييس لا تحتاج إلى أن تكون معايير أداء رسمية حتى تصبح إشارات قوة غير رسمية.