الجيش يختبر إلى أي مدى ينبغي أن يمتد الدفاع السيبراني المستقل
يتحرك الجيش الأميركي بسرعة لبحث دور أكثر هجومية للذكاء الاصطناعي في الدفاع السيبراني بعد أن استكشفت مناورة حربية حديثة مع قادة من شركات التكنولوجيا في القطاع الخاص كيف يمكن للهجمات المستقبلية أن تطغى على المشغلين البشريين. وجمع التمرين، المعروف باسم AI Table Top Exercise 2.0، مسؤولين تنفيذيين من 14 شركة تقنية، ومسؤولين في الجيش، وقيادة الفضاء السيبراني الأميركية حول سيناريو حاد: أزمة في منطقة المحيطين الهندي والهادئ عام 2027 تتصاعد إلى حرب سيبرانية ضد الشبكات العسكرية الأميركية.
الخلاصة الرئيسية لم تكن أن الذكاء الاصطناعي قادر على حل الدفاع السيبراني بمفرده، بل إن الدفاع بسرعة البشر قد لا يعود كافياً إذا كان الخصوم يستخدمون أنظمة هجوم تكيفية مدعومة بالذكاء الاصطناعي يمكنها الفحص والاستغلال وتغيير التكتيكات أسرع مما يستطيع الناس الرد. وقد دفع ذلك مسؤولي الجيش إلى الحديث بشكل أكثر صراحة عن الذكاء الاصطناعي الوكيلي الذي يمكنه الانتقال من الاكتشاف إلى الفعل، وعن بناء هيكل سياساتي يحدد متى ينبغي أن تُمنح هذه الأنظمة قدراً أكبر من الاستقلالية.
من التحذير إلى الاستجابة
صاغ براندون بيوغ، المستشار الرئيسي للأمن السيبراني لدى وزير الجيش دانيال دريسكول، القضية من منظور الشهية للمخاطر. ففي وقت السلم قد يظل الإشراف البشري هو القاعدة. أما في زمن الحرب، ولا سيما خلال موجة من الهجمات، فقد يحتاج الجيش إلى عتبة مختلفة للسماح لوكلاء البرمجيات بالتصرف. وهذه هي الفكرة وراء ما وصفه المسؤولون بأنه سياسة محتملة لـ“استمرارية المخاطر”، أي نهج يغيّر مستوى التدخل البشري بحسب الظروف.
هذا التمييز بالغ الأهمية. فوزارة الدفاع تستخدم بالفعل الذكاء الاصطناعي للمساعدة في اكتشاف الاختراقات على شبكاتها. لكن الاكتشاف ليس سوى الخطوة الأولى. والسؤال الأصعب هو ما إذا كان ينبغي تمكين أنظمة الذكاء الاصطناعي من اتخاذ إجراءات استجابة مباشرة من تلقاء نفسها عندما يكون الاختراق جارياً.
وقال بيوغ إن الجيش قوي بالفعل في استخدام الذكاء الاصطناعي للاكتشاف، لكنه يحتاج الآن إلى التقدم نحو قدرات وكيليّة لا تكتفي بتحديد السلوك الخبيث بل تتعامل معه أيضاً. وقد يعني ذلك عزل الأنظمة، أو حجب الاتصالات، أو تفعيل إجراءات مضادة، أو تعطيل الهجوم بطريقة أخرى قبل أن ينتشر.
لماذا يرى الجيش أن هذا أمر ملح
وصف اللفتنانت جنرال كريستوفر يوبانك، الذي يقود قيادة الجيش السيبرانية، التحدي بعبارات مباشرة. ففي عالم الذكاء الاصطناعي الوكيلي، قال إن مطالبة المدافعين بأن “يطبقوا التصحيحات أسرع” أمر غير واقعي. فإذا كانت الأنظمة الهجومية تشن هجمات متكررة تتكيف باستمرار مع التغييرات الدفاعية، فقد تكون الفرق البشرية وحدها بطيئة للغاية بحيث لا تستطيع مجاراة ذلك.
وقد بُني سيناريو التمرين على هذه الفرضية تحديداً. وقال مسؤولون إن الخصم الافتراضي استخدم الذكاء الاصطناعي لشن وابل تلو وابل من الهجمات السيبرانية التي تكيفت مع الوضع الدفاعي للجيش أسرع مما يستطيع المدافع البشري الرد. هذا النوع من الضغط يختلف عن الدفاع التقليدي عن الشبكات. فهو يحول العمليات السيبرانية إلى سباق سرعة تصبح فيه المماطلة نفسها نقطة ضعف.
ومن هذا المنظور، فإن اهتمام الجيش بمزيد من الاستقلالية يتعلق أقل بالحماس للأتمتة وأكثر بالاستجابة العملية لتقلص الزمن. فإذا كان حلقة الهجوم تتسارع، فيجب أن تتسارع حلقة الدفاع أيضاً.
دور القطاع الصناعي في تشكيل العقيدة
من الجوانب اللافتة في التمرين أنه لم يُدار بوصفه محاكاة تقنية ضيقة ومسبقة الصياغة. فقد صممه ونظمه Strategic Competitive Studies Project، واستخدم صيغة أشبه بالندوة قدّم فيها مسؤولون تنفيذيون من 14 شركة تقنية توصياتهم، بينما ناقش المشاركون العسكريون تلك الأفكار. وتشير هذه الصيغة إلى أن الجيش لا يبحث فقط عن منتجات، بل يحاول فهم كيف ينبغي أن تشكل طريقة التفكير التجارية في الذكاء الاصطناعي العقيدة السيبرانية العسكرية.
وهذا تمييز مهم. فالسؤال الأساسي ليس ببساطة ما إذا كانت الأداة تعمل، بل من يملك سلطة الموافقة عليها، وفي أي ظروف، وبأي ضمانات، ومع أي درجة من التسامح تجاه الإنذارات الكاذبة أو العواقب غير المقصودة. وهذه أسئلة تتعلق بالسياسة والقيادة بقدر ما تتعلق بالهندسة.
ويبدو أن الجيش يدرك ذلك. فالتمرين لم يخرج بإجابات نهائية، وكان المسؤولون صريحين بشأن هذا الأمر. لكنه أتاح للقادة العسكريين وجهات نظر خارجية حول كيفية التفكير في الدفاع المستقل في سيناريو صراع قد يكون فيه التأخير كارثياً.
قد تكون المشكلة السياسية أصعب من المشكلة التقنية
بناء أنظمة سيبرانية وكيليّة أمر صعب. لكن بناء الثقة فيها قد يكون أصعب. فالذكاء الاصطناعي الدفاعي الذي يتحرك ببطء شديد يكون غير فعال. أما الذي يتحرك بسرعة مفرطة أو على نطاق واسع جداً فقد يعطل العمليات الصديقة، أو يوقف حركة مرور مشروعة، أو يضيف مخاطر جديدة أثناء أزمة.
ولهذا قد يكون لمفهوم “استمرارية المخاطر” الناشئ أهمية أكبر من أي إعلان منتج محدد. فهو يشير إلى أن الجيش يستعد لمستقبل لا تكون فيه مستويات الاستقلالية ثابتة بل مشروطة. فقد تتطلب بيئة شبكات روتينية سيطرة بشرية صارمة. أما هجوم كبير في زمن الحرب فقد يبرر إشرافاً أرخى بكثير إذا كان البديل هو أن تسبَق من قبل هجمات تقودها الآلات.
مثل هذا الإطار لن يحسم كل سؤال أخلاقي أو تشغيلي، لكنه سيوفر طريقة لربط القدرات التقنية بسلطة القيادة وسياق المهمة. وفي التطبيق العملي، قد يكون هذا ما يحدد ما إذا كان الدفاع الوكيلي قابلاً للاستخدام على نطاق واسع.
ما الخطوة التالية
يبدو أن الخطوات التالية للجيش ستشمل تطوير الأدوات وتصميم السياسات معاً. وقال مسؤولون إنهم يريدون تسريع قدرات الذكاء الاصطناعي الجديدة مع العمل في الوقت نفسه على القواعد التي ستحكم استخدامها. وهذا المسار المزدوج منطقي، لأن أحدهما دون الآخر سيخفق. فالتكنولوجيا من دون عقيدة تنطوي على الفوضى. والعقيدة من دون تكنولوجيا قادرة تنطوي على انعدام الصلة.
والدلالة الأوسع هي أن الدفاع السيبراني العسكري يدخل مرحلة جديدة. فلم يعد يُنظر إلى الذكاء الاصطناعي باعتباره مجرد أداة مساعدة للمحللين، بل صار يُنظر إليه كفاعل عملياتي قد يحتاج إلى اتخاذ إجراءات بسرعة الآلة عندما لا يعود توقيت الإنسان كافياً.
ولم يقرر الجيش بعد مقدار الحرية التي سيمنحها لتلك الوكلاء. لكن بعد هذه المناورة الحربية، يبدو أنه يستعد بوضوح لمستقبل قد يكون فيه عدم اتخاذ هذا القرار هو الخطر الأكبر.
تعتمد هذه المقالة على تقرير Breaking Defense. اقرأ المقال الأصلي.


