تراجع سريع في سياسة الكود العام
تسحب NHS England البرمجيات التي كتبتها من نظر الجمهور وتطلب من الموظفين أن تكون مستودعات الشيفرة المصدرية خاصة افتراضيًا، وفقًا لإرشادات وصفت في نص المصدر المقدم. وتمثل هذه الخطوة تحولًا حادًا لمؤسسة كان برمجياتها تُنشر عادةً للعامة على أساس أنها ممولة من دافعي الضرائب ويمكن للآخرين إعادة استخدامها.
ويأتي هذا التغيير مدفوعًا بالقلق من أن أنظمة الذكاء الاصطناعي القادرة على نحو متزايد قد تبتلع الكود العام، وتستنتج نقاط الضعف، وتساعد المهاجمين على تحديد الثغرات. وتشير الإرشادات الجديدة، بحسب ما ورد، إلى مهلة حتى 11 مايو لجعل المستودعات خاصة ما لم تكن هناك سبب معتمد صراحة للإبقاء عليها عامة.
المحفز المرتبط بالذكاء الاصطناعي: Mythos
يقول نص المصدر إن NHS England أشارت تحديدًا إلى نظام ذكاء اصطناعي من Anthropic يُدعى Mythos كسبب لهذا التوجه الجديد. وتجادل الإرشادات بأن المستودعات العامة تزيد خطر الكشف ليس فقط عن الشيفرة المصدرية، بل أيضًا عن القرارات المعمارية وتفاصيل الإعداد والسياق الذي يمكن أن تستغله أنظمة الذكاء الاصطناعي مع تحسنها في تحليل الكود على نطاق واسع والاستدلال عليه.
يعكس هذا القلق تحولًا أوسع في التفكير الأمني السيبراني. لسنوات طويلة، كان المدافعون يخشون المهاجمين البشر الذين ينقبون في الأنظمة والكود المكشوف. أما الخوف الجديد فهو أن الذكاء الاصطناعي قد يؤتمت جزءًا من هذا العمل، ويعالج أصول البرمجيات على نطاق يضغط الزمن بين التعرض والاستغلال.
لماذا يقول المنتقدون إن الخطوة قد تأتي بنتيجة عكسية
يرى خبراء أمن نقل عنهم التقرير المقدم أن السياسة غير ضرورية وتأتي بنتيجة عكسية. أحد الأسباب أن برمجيات المصدر المفتوح اعتمدت طويلًا على نظرية مختلفة للأمان: فالرؤية العامة يمكن أن تحسن الجودة لأن مزيدًا من الأشخاص يستطيعون فحص الكود واختباره وإصلاحه. وقد يقلل إغلاق المستودعات من الشفافية دون أن يزيل الثغرات فعليًا.
ويشير نص المصدر أيضًا إلى أن معهد أمن الذكاء الاصطناعي المدعوم من الحكومة البريطانية درس Mythos وخلص إلى أنه قادر فقط على مهاجمة “أنظمة مؤسسية صغيرة وضعيفة الدفاع وعرضة للخطر”، دون دليل على أن نظامًا أو شبكة آمنة حقًا ستكون معرضة لخطر واسع. وإذا كان هذا التقييم دقيقًا، فقد يكون رد NHS England أكبر من مستوى التهديد المثبت.
الحكومة المفتوحة مقابل السرية الدفاعية
يقع هذا النزاع عند تقاطع نزعتين سياسيتين تتصادمان الآن بوتيرة أكبر. تقول إحداهما إن البنية الرقمية الممولة من المال العام يجب أن تُشارك علنًا لتجنب الازدواجية وتحسين الخدمات العامة والسماح للآخرين بالبناء على العمل الممول من الدولة. بينما تقول الأخرى إن السرية الدفاعية تصبح أكثر قيمة مع قيام الذكاء الاصطناعي بتخفيض كلفة الاستطلاع لدى المهاجمين.
وتُفضّل قاعدة NHS England الجديدة بوضوح الرؤية الثانية، على الأقل في الوقت الحالي. لكن الثمن كبير. فبمجرد أن يصبح الكود مغلقًا افتراضيًا، تصبح الشراكة أصعب، ويضيق نطاق المراجعة الخارجية، ويقل ما يراه الجمهور من البرمجيات التي قد تشكل عمليات الرعاية الصحية وأنظمة البيانات.
لمحة عن نقاش أوسع
أهمية قرار NHS لا تقتصر على بريطانيا، لأن كثيرًا من المؤسسات العامة تطرح نسخة من السؤال نفسه. هل ينبغي لمخاطر أمن عصر الذكاء الاصطناعي أن تغيّر الافتراضات الافتراضية وراء نشر المصدر المفتوح؟ أم أن التراجع عن الانفتاح يضحي بالمرونة طويلة الأجل مقابل شعور قصير الأجل بالسيطرة؟
ومن غير المرجح أن تكون الإجابة واحدة للجميع. فقد تكشف بعض قواعد الكود تفاصيل تشغيلية حساسة لا ينبغي أن تكون عامة. وقد تصبح أخرى أقل أمانًا عندما يختفي التدقيق الخارجي. والتحدي هو التمييز بين هذه الحالات بأدلة لا بالخوف.
ما الذي تشير إليه هذه الخطوة
الإشارة الفورية هي أن نماذج الذكاء الاصطناعي المتقدمة تؤثر بالفعل في سياسات المؤسسات الواقعية، حتى عندما تظل الأدلة التقنية محل جدل. NHS England لا تنتظر إجماعًا مستقرًا قبل تغيير طريقة التعامل مع برمجياتها؛ إنها تتحرك استباقيًا نحو وضعية الإغلاق الافتراضي.
ويبقى ما إذا كانت هذه المقاربة تحسن الأمن أمرًا غير محسوم. لكن المؤكد أن نقاش أمن الذكاء الاصطناعي تجاوز مرحلة النظرية. فهو يعيد الآن تشكيل قواعد الشراء ومعايير النشر وحدود الشفافية الرقمية داخل مؤسسات القطاع العام.
إذا اتبعت حكومات أكثر مسار NHS، فقد يكون أحد أكبر الآثار غير المباشرة للذكاء الاصطناعي إنترنت أكثر هدوءًا: كود عام أقل، ومستودعات مفتوحة أقل، وإعادة تعريف لما ينبغي أن تبدو عليه البنية الرقمية العامة.
هذه المقالة مبنية على تقرير من New Scientist. اقرأ المقال الأصلي.
Originally published on newscientist.com

