يتحول النقاش من نقاط الموافقة إلى بنية التصميم
مع استثمار المؤسسات العسكرية مزيدًا من الأموال في الأنظمة المستقلة والوكيلية بشكل متزايد، تصبح مسألة التحكم البشري أقل ارتباطًا بالشعارات وأكثر ارتباطًا بتصميم النظام. ويشير اقتراح جديد ورد وصفه في Breaking Defense إلى أن الصيغة الشائعة لـ “human in the loop” لا تكفي إذا كانت الآلة قد شكّلت بالفعل صورة ساحة المعركة، وضيّقت الخيارات المتاحة، وقيّدت اختيارات الإنسان قبل أن تظهر أي طلب للموافقة النهائية.
ويطلق المؤلفان على فكرتهما اسم “Synthesized Command & Control”. وتتمثل حجتهما الأساسية في أن التحكم البشري الهادف ينبغي أن يُدمج في وقت أبكر بكثير داخل عملية اتخاذ القرار. فبدلًا من أن يُطلب من شخص ما الموافقة على ضربة أو رفضها في نهاية سلسلة مدعومة بالذكاء الاصطناعي، يجادلان بأن تفضيلات القائد والنية العملياتية يجب أن تُبنى بصورة منهجية داخل البرمجيات منذ البداية.
لماذا قد تكون الموافقة النهائية متأخرة جدًا
نقد المقال للنموذج القياسي مباشر. فإذا سُمِح لنظام ذكاء اصطناعي باتخاذ خيارات سابقة تتعلق بتموضع القوة، أو ترتيب الأولويات للأهداف، أو صياغة التوصيات بسرعة الآلة، فقد يكون دور الإنسان في النهاية أضيق مما يبدو. قد يظل القائد من الناحية التقنية هو من يجيز الفعل، لكن ذلك لن يحدث إلا بعد أن يكون النظام الآلي قد شكّل بالفعل الظروف التي تُتخذ فيها القرارات.
وهذا هو التوتر الأساسي في تعاون الإنسان والآلة. فإذا طُلبت الموافقة البشرية في كل خطوة، فقد تختفي مزايا السرعة التي يوفرها الذكاء الاصطناعي. وإذا اقتصر الطلب على النهاية، فقد يحتفظ الإنسان بالسلطة الرسمية بينما يفقد التأثير العملي في المنطق الأوسع للعملية.
المقترح: ترميز النية، لا مجرد الإذن
الجواب المقترح هو ترميز التفضيلات البشرية بصورة استباقية. في هذا النموذج، تُترجم أفكار مثل نية القائد إلى قيود وإرشادات داخل الخوارزمية نفسها. والهدف ليس مجرد إنشاء نقطة تحقق يستطيع الإنسان عندها إيقاف الآلة، بل ضمان أن تكون عملية توليد الخيارات لدى الآلة محكومة منذ البداية بحكم الإنسان.
ويعكس هذا النهج تحولًا أوسع في التفكير المتعلق بحوكمة الذكاء الاصطناعي. فالسؤال لا يقتصر على ما إذا كان يمكن مقاطعة النظام. بل يتعلق بما إذا كانت مساحة تفكير النظام متوافقة مبكرًا بما يكفي بحيث تظل سرعته وحجمه منسجمين مع السلطة البشرية.
ما تزال الشفافية غائبة في فئات الذكاء الاصطناعي العسكري
كما يشير المقال إلى مشكلة مفاهيمية داخل مشهد الذكاء الاصطناعي الدفاعي الحالي: غموض مستمر حول مصطلحات مثل التلقائي، وشبه المستقل، والمستقل، والمستقل الوكيلي. ويعقّد هذا الغموض التعريفي الشراء والإشراف والعقيدة العسكرية. فإذا كان الفاعلون المختلفون يقصدون أشياء مختلفة بالمصطلحات نفسها، فقد تصبح النقاشات حول التحكم والمساءلة والاستخدام المقبول مربكة قبل حتى تناول الأسئلة التقنية.
وهذا مهم في سياق ترتفع فيه الرهانات والاستثمارات. ويذكر المقال طلب تمويل يقارب 55 مليار دولار لـ Defense Autonomous Warfare Group، ويشير إلى اهتمام رفيع المستوى من قيادة الدفاع الأمريكية العليا. ومع ارتفاع الإنفاق والاهتمام السياسي، يصبح الغموض بشأن الفئات التشغيلية أكثر من مجرد مسألة دلالية. إنه يتحول إلى خطر حوكمة.
إطار عمل، لا حل نهائي
لا يحل الاقتراح كل المشكلات. فترجمة النية البشرية إلى كود أمر صعب، كما أن نية القيادة نفسها قد تكون غامضة أو محل نزاع أو خاضعة لتغيرات ظروف ساحة المعركة. ومع ذلك، يحدد هذا الطرح نقطة ضعف حقيقية في السرديات المبسطة الخاصة بـ “الموافقة البشرية”. فقد يفي زر الموافقة في المرحلة المتأخرة بمتطلب شكلي من دون الحفاظ على تحكم جوهري.
ولهذا السبب يتجاوز هذا النقاش الأوساط العسكرية. فهو يعالج سؤالًا أوسع للذكاء الاصطناعي يظهر في مجالات كثيرة: في أي نقطة من سير عمل النظام تتشكل النتائج فعليًا بقيم الإنسان؟ ويجيب المؤلفان بأن الانتظار حتى النهاية لا يكفي في بيئات الصراع السريع. وإذا كان الذكاء الاصطناعي العسكري سيظل مقيدًا بالحكم البشري، فيجب تصميم هذا الحكم داخل النظام قبل أن يبدأ النظام في العمل.
يعتمد هذا المقال على تقرير Breaking Defense. اقرأ المقال الأصلي.
Originally published on breakingdefense.com


