سطر صغير في رسالة التزام تسبب في مشكلة ثقة أكبر بكثير

تواجه مايكروسوفت رد فعل غاضبًا من المطورين بعد أن أدرج Visual Studio Code بهدوء سطر “Co-Authored-by Copilot” في التزامات Git، بما في ذلك الحالات التي كان المستخدمون فيها قد عطّلوا ميزات الذكاء الاصطناعي. وقد أثار التغيير انتقادات ليس لأنه غيّر مخرجات التطبيق بشكل واضح، بل لأنه مسّ أحد أكثر السجلات حساسية في تطوير البرمجيات: سجل الالتزامات الذي يوثّق المؤلفية والقصد والمسؤولية.

ووفقًا لـ The Decoder، فقد دفَع مدير منتج في مايكروسوفت بهذه الميزة، ووافق عليها مهندس رئيسي من دون وصف، ثم جرى دمجها بسرعة. وجاء رد المطورين فوريًا بمجرد أن أصبح السلوك مرئيًا على GitHub وHacker News. واحتجّ المنتقدون بأن المشكلة لم تكن في وجود اعتماد للذكاء الاصطناعي فقط، بل في ظهوره حتى عندما كانت الوظائف المرتبطة بـ Copilot معطلة.

لماذا تُعد بيانات الالتزام الوصفية مهمة إلى هذا الحد

في كثير من الفرق، لا تكون النصوص المرفقة بالالتزام مجرد زينة. فقد تكون جزءًا من مسارات التدقيق، وممارسات الامتثال الداخلية، وحسابات المساهمات، والمراجعة القانونية. وسطر الشريك في التأليف يعني المشاركة. وإذا كان هذا السطر يذكر نظامًا للذكاء الاصطناعي من دون استخدام أي ذكاء اصطناعي، أو ظهر من دون موافقة واضحة، فإنه يخاطر بإرباك معنى السجل.

ولهذا تجاوز رد الفعل مجرد الانزعاج. فالمطورون الذين اقتبسهم التقرير شككوا في أن مايكروسوفت ربما كانت تحاول تضخيم مؤشرات استخدام Copilot. والنص الأصلي لا يثبت هذا الدافع بشكل مستقل، لكنه يوضح أن الشك ترسخ بسرعة. وبمجرد أن يعتقد المستخدمون أن بائع أداة يغيّر بيانات الإسناد لأسباب تتعلق بصورة المنتج، قد تتجاوز كلفة الثقة حجم الميزة الأصلية.

وتصبح المسألة أكثر خطورة داخل المؤسسات التي لديها قواعد صارمة بشأن الذكاء الاصطناعي. فبعض الشركات تنظّم متى يمكن استخدام الأدوات التوليدية، وكيف يجب الإفصاح عن هذا الاستخدام، وما إذا كان يمكن إدخال الشيفرة المساعدة بالذكاء الاصطناعي إلى مستودعات معينة. وقد يخلق سطر شريك تأليف تلقائي ومخفي جزئيًا تعارضات داخلية في الإجراءات حتى في الحالات التي لم يحدث فيها أي إسهام فعلي من الذكاء الاصطناعي.

كان رد مايكروسوفت سريعًا، لكنه جاء بعد وقوع الضرر

بعد موجة الغضب، اعترف مطور مايكروسوفت Dmitriy Vasyura بالخطأ. وقال إن الميزة ما كان ينبغي لها أن تعمل أصلًا عندما تكون وظائف الذكاء الاصطناعي معطلة، وأنها لا ينبغي أن تصف الالتزامات بأنها مولدة بالذكاء الاصطناعي عندما لا يكون الذكاء الاصطناعي قد شارك. كما قال إن الإعداد الافتراضي سيُعاد في الإصدار 1.119.

هذا الرد يعالج المشكلة الفورية، لكنه يترك سؤالًا أوسع يتعلق بالحوكمة. كيف وصل تغيير يؤثر في مؤلفية الالتزامات إلى الإطلاق بشكل شعر معه المستخدمون بأنه غير مُفصح عنه، أو على الأقل غير ظاهر بما يكفي؟ تعمل شركات أدوات المطورين بشكل متزايد في مناخ يمكن أن تحمل فيه قرارات صغيرة تتعلق بتجربة المستخدم آثارًا سياسية وقانونية وسمعية. وكلما اقترب الذكاء الاصطناعي من سير العمل الأساسي، قلّ هامش الغموض في الإعدادات الافتراضية.

ويشير التقرير أيضًا إلى أن النقاش المرتبط على GitHub أُغلق لاحقًا باعتباره بريدًا عشوائيًا. وحتى عندما تكون قرارات الإشراف روتينية، فإن هذا النوع من الإغلاق قد يعمّق الانطباع بأن البائع يحاول احتواء جدل بدلًا من مواجهته بالكامل.

الصراع الأعمق داخل أدوات المطورين المدعومة بالذكاء الاصطناعي

تكشف هذه الحادثة عن توتر بنيوي في مساعدات البرمجة. فالبائعون يريدون تكاملًا عميقًا بما يكفي ليبدو دعم الذكاء الاصطناعي سلسًا وحاضرًا دائمًا. أما المطورون فيريدون، بالمقابل، تحكمًا دقيقًا في متى يشارك المساعد، وكيف يُسجَّل هذا الاشتراك، وما البيانات التي تُنشأ عن عملهم.

يمكن لهذه الأهداف أن تتعايش، لكن فقط إذا كانت الإعدادات الافتراضية واضحة وقابلة للعكس. فبمجرد أن يظهر الإسناد من دون موافقة لا لبس فيها، يتوقف المنتج عن أن يبدو كمساعد ويبدأ في الظهور كفاعل يكتب نفسه داخل السجل التاريخي. ويصبح ذلك بالغ الحساسية خصوصًا في التحكم بالإصدارات، حيث تعتمد الثقة على سلامة التفاصيل الصغيرة.

وتُظهر هذه القضية أيضًا أن “إيقاف الذكاء الاصطناعي” يجب أن يعني تمامًا ما يعتقده المستخدمون. فإذا استمر النظام في إدراج بيانات وصفية مرتبطة بالذكاء الاصطناعي بينما الذكاء الاصطناعي معطل، فإن نموذج التهيئة نفسه يصبح محل شك. بالنسبة للمطورين، الإعداد المعطل ليس اقتراحًا. إنه أمر.

ما الذي تشير إليه موجة الغضب بالنسبة إلى الصناعة

يبدو أن تقبل المطورين للتكامل العدواني مع الذكاء الاصطناعي يتراجع. فقد يقبل المهندسون ميزات المساعد التي توفر الوقت، لكنهم أقل ميلاً إلى قبول السلوك الخفي، أو الإسناد الغامض، أو الإعدادات الافتراضية التي تخدم سردية البائع قبل تحكم المستخدم. وكلما ارتفعت الادعاءات المتعلقة بالإنتاجية، ارتفع معها توقع أن تظل الأداة شفافة بشأن ما فعلته ومتى فعلته.

بالنسبة إلى مايكروسوفت، قد يؤدي إرجاع الإعداد الافتراضي إلى إنهاء الحادثة المباشرة. أما بالنسبة إلى منظومة الأدوات الأوسع، فالعبرة أكبر. لم تعد ميزات الذكاء الاصطناعي في بيئات البرمجة تُقاس بجودة المخرجات فقط، بل أيضًا بالأصل والإفصاح واحترام العقود الاجتماعية التي تحكم العمل البرمجي التعاوني.

قد يبدو سطر واحد في رسالة التزام أمرًا بسيطًا. لكن عمليًا، فقد مسّ المؤلفية والامتثال والموافقة في الوقت نفسه. ولهذا كانت الاستجابة حادة إلى هذا الحد، ولهذا سيراقب مصنعو الأدوات الآخرون هذه الحادثة عن كثب على الأرجح.

تعتمد هذه المقالة على تغطية The Decoder. اقرأ المقال الأصلي.

Originally published on the-decoder.com