رد kernel على أدوات البرمجة بالذكاء الاصطناعي

بعد أشهر من النقاش، قام مشروع Linux kernel بتقنين أول سياسة صريحة له بشأن المساهمات البرمجية المدعومة بالذكاء الاصطناعي. ووفقًا لما لخصته ZDNET، فإن الإرشادات الجديدة تمثل تسوية عملية لا حظرًا، ولا تأييدًا بلا حدود. الرسالة الأساسية بسيطة: يمكن للمطورين استخدام أدوات الذكاء الاصطناعي، لكن لا يمكنهم نقل المسؤولية إليها. في عالم Linux، حيث جودة الكود والانضباط في الترخيص ومعايير المراجعة صارمة بشكل غير معتاد، يكون هذا الفارق هو جوهر المسألة.

تضع السياسة ثلاثة مبادئ. أولًا، لا يمكن للوكلاء المعتمدين على الذكاء الاصطناعي إضافة وسم Signed-off-by، لأن البشر فقط هم من يستطيعون الإقرار بالامتثال لـ Developer Certificate of Origin الخاص بالنواة. ثانيًا، يجب أن تتضمن المشاركات المدعومة بالذكاء الاصطناعي وسم Assisted-by يذكر النموذج أو الوكيل أو الأدوات المساعدة المستخدمة. ثالثًا، يتحمل المُرسِل البشري المسؤولية الكاملة عن مراجعة الكود، وضمان الامتثال للترخيص، وتحمل أي أخطاء أو ثغرات أمنية تنتج عنه. هذه القواعد تحول استخدام الذكاء الاصطناعي من متغير مخفي إلى جزء مُعلن من عملية المساهمة.

النتيجة تتعلق بدرجة أقل بسحر الذكاء الاصطناعي ودرجة أكبر بالحفاظ على سلسلة المساءلة الخاصة بالنواة. Linux kernel ليس مجرد مشروع برمجي. إنه نظام قانوني وتشغيلي له معايير واضحة للأصل والمراجعة والملكية. وإذا دخل كود مولد إلى هذا النظام من دون إسناد شفاف، يفقد القائمون على الصيانة رؤيتهم للمخاطر. ويعالج شرط Assisted-by الجديد هذا الأمر من خلال منح المراجعين إشارة واضحة إلى كيفية إنتاج التصحيح وأين قد تكون هناك حاجة إلى تدقيق إضافي.

الشفافية بدل المسرحيات

تصف ZDNET هذا النهج بأنه عملي، وهذا هو الإطار الصحيح. فالسياسة لا تفترض أن أدوات الذكاء الاصطناعي غائبة عن التطوير الحديث، ولا تتعامل معها بوصفها نظراء موثوقين. بل تصنفها كأدوات يجب الإفصاح عن مخرجاتها، وتظل عواقبها على البشر. وربما كان هذا هو الموقف الوحيد الذي يمكن للنواة أن تتخذه بصدقية. لا يمكن للمشروع أن يسمح بنموذج تأليف غامض عندما يكون الإقرار القانوني والمراجعة التقنية عنصرين مركزيين في قبول التغييرات.

وقد تشكلت السياسة بفعل الجدل. يشير النص الأصلي إلى نقاش تصاعد بعد أن قدم Sasha Levin، مهندس Nvidia ومطور النواة، تصحيحًا إلى Linux 6.15 تم توليده بالكامل بواسطة الذكاء الاصطناعي، بما في ذلك سجل التغييرات والاختبارات، رغم أنه راجع النتيجة واختبرها قبل الإرسال. وقد بلورت تلك الواقعة سؤالًا تواجهه الآن كثير من مجتمعات البرمجيات: إذا ساعد الذكاء الاصطناعي في إنتاج تصحيح، فما الذي يجب الإفصاح عنه، ومن يقف وراء العمل؟

ويُعد جواب النواة مهمًا لأنه يرفض الطرفين المتناقضين معًا. فهو لا يطلب من المطورين تجنب الذكاء الاصطناعي تمامًا، ولا يسمح لهم بالاختباء خلف الأتمتة. وقد يكون لهذا المزيج تأثير يتجاوز Linux. فما زالت مشاريع كثيرة مفتوحة المصدر ومؤسسية ترتجل معاييرها الخاصة حول الكود المولّد. وقد قدمت النواة الآن نموذجًا يجعل الإفصاح إلزاميًا، والمسؤولية غير قابلة للتحويل.

لماذا يهم هذا في حوكمة البرمجيات

الأهمية الأوسع هي أن البرمجة المدعومة بالذكاء الاصطناعي تتحول إلى قضية حوكمة، لا مجرد قضية إنتاجية. فالتصحيح الذي ينجح في البناء ليس بالضرورة تصحيحًا يستحق الثقة. تحتاج المشاريع إلى معرفة مصدر الكود، ومن راجعه، ومن يمكنه الإجابة عنه لاحقًا. وفي قواعد الشيفرة عالية المخاطر، لا يمكن فصل هذه الأسئلة عن الأمن وقابلية الصيانة والامتثال القانوني.

ولهذا السبب يكتسب وسم Assisted-by أهمية، حتى لو بدا تفصيلًا إجرائيًا صغيرًا. فهو يمنح القائمين على الصيانة سياقًا. وقد يحدد مدى عمق مراجعة التصحيح. كما قد يثني عن الاستخدام المهمل لأدوات الذكاء الاصطناعي من خلال جعل الإفصاح أمرًا لا مفر منه. وإذا علم المساهمون أن العمل المولّد سيُوسم بمزيد من التدقيق، فستكون لديهم حافز أقوى لمراجعته بدقة قبل الإرسال.

القواعد الجديدة لمجتمع النواة لا تحل كل المشكلات المتعلقة بالكود المولّد بالذكاء الاصطناعي. وتذكر ZDNET أن السياسة قد لا تعالج التحدي الأكبر. لكنها تحسم مبدأً أساسيًا: يمكن للآلة أن تساعد، لكن الإنسان هو من يجب أن يجيب. وفي منظومة برمجية تقوم على الثقة عبر الإجراءات، فهذه هي القاعدة الأهم.

لماذا تهم هذه القصة

  • قام Linux kernel الآن بتقنين سياسة رسمية للمساهمات المدعومة بالذكاء الاصطناعي.
  • يبقى المساهمون البشريون مسؤولين قانونيًا وتقنيًا عن الكود المرسل.
  • قد يؤثر الإسناد الإلزامي عبر Assisted-by في نماذج حوكمة open-source أخرى.

هذه المقالة مبنية على تقرير ZDNET. اقرأ المقال الأصلي.