مشكلة محاذاة الذكاء الاصطناعي العسكرية
تابعت وزارة الدفاع الأمريكية مسارًا عدوانيًا لاعتماد الذكاء الاصطناعي منذ إنشاء Joint Artificial Intelligence Center عام 2018 ونظيره، Chief Digital and Artificial Intelligence Office عام 2022. ومع ذلك، مع توقيع البنتاغون عقودًا مع عدد متزايد من شركات الذكاء الاصطناعي — من متعهدي الدفاع الراسخين إلى شركات ناشئة في وادي السيليكون ومختبرات النماذج المتقدمة — ظهرت تحديات جديدة: انتشار أدوات الذكاء الاصطناعي غير المتوافقة، إصدارات نماذج مختلفة، ومستويات قدرات غير متسقة عبر القيادات والفروع العسكرية.
رد فعل البنتاغون هو محاولة توحيد موفري الذكاء الاصطناعي لديه وجعلهم يعملون جميعًا على ما يسميه المسؤولون نفس الخط الأساس — مجموعة مشتركة من إصدارات النموذج، والـ API، وسياسات الأمان، ومعايير الأداء التي ستمكن الأنظمة العسكرية المختلفة من التعاون وتسمح لمسؤولي الإشراف برؤية واضحة لما هي قدرات الذكاء الاصطناعي المنتشرة وأين.
Claude في السياق العسكري
من بين أنظمة الذكاء الاصطناعي التي يسعى البنتاغون إلى توحيد الوصول إليها Claude من Anthropic — أحد نماذج اللغة الكبيرة المتقدمة التي استخدمتها مختلف المتعاقدين المرتبطين بالدفاع والمنظمات الحكومية مباشرة للمهام بما في ذلك تحليل المستندات ومعالجة الاستخبارات ودعم صنع القرار. يعكس إدراج Claude جنبًا إلى جنب مع أنظمة OpenAI و Google و Microsoft رغبة البنتاغون في الحفاظ على خيارات متعددة بين موفري الذكاء الاصطناعي المتقدمين بدلاً من الاعتماد على بائع واحد.
كان لـ Anthropic علاقة أكثر تعقيدًا مع التعاقد العسكري من بعض منافسيها. تحظر سياسة الاستخدام المقبول للشركة استخدام Claude لتطوير الأسلحة والهجمات على البنية التحتية الحيوية وعدة فئات أخرى من التطبيقات الضارة. لكن الخط الفاصل بين حالات الاستخدام المحظورة والمسموحة في سياق عسكري ليس واضحًا دائمًا — تحليل المستندات وتحسين الخدمات اللوجستية ودعم صنع القرار هي تطبيقات محايدة على ما يبدو ولكن يمكنها عمليًا المساهمة في العمليات العسكرية، بما في ذلك العمليات القاتلة.
يسلط استقالة مديرة الروبوتات في OpenAI، Caitlin Kalinowski، من صفقة البنتاغون مع تلك الشركة — نقلاً عن المخاوف بشأن الحكم الذاتي القاتل والتفكير غير الكافي — الضوء على التوترات الأخلاقية التي تواجهها شركات الذكاء الاصطناعي المتقدمة عندما تتعامل مع العملاء العسكريين. لم تكشف Anthropic علنًا عن الشروط المحددة التي بموجبها يتوفر Claude لعملاء وزارة الدفاع أو آليات الإشراف التي تحكم استخدامه العسكري.
الذكاء الاصطناعي للاستهداف العسكري: المشكلة الأساسية
التطبيق الأكثر حساسية للذكاء الاصطناعي في السياقات العسكرية هو الاستهداف — استخدام الأنظمة الآلية لتحديد الأهداف وترتيب أولوياتها، وفي بعض الحالات المساعدة في الاشتباك مع الأهداف الموالية للعدو. تتطلب عقيدة الجيش الأمريكي تصريحًا بشريًا لقرارات استخدام القوة القاتلة، لكن دور الذكاء الاصطناعي في معالجة بيانات المستشعرات وتحديد الأهداف المحتملة وتقديم التوصيات لصانعي القرار البشريين قد توسع بشكل هائل في السنوات الأخيرة.
Project Maven، برنامج تحليل الصور القائم على الذكاء الاصطناعي بالبنتاغون، يعالج لقطات مراقبة الطائرات بدون طيار لتحديد الأهداف ذات الفائدة للمراجعة البشرية. الذكاء الاصطناعي لا يتخذ قرار القتل النهائي — إنسان يفعل ذلك — لكنه يشكل المعلومات التي تصل إلى الإنسان وكيف يتم تقديمها، مما يثير أسئلة حول جودة إشراف الإنسان ذات المعنى الذي تتطلبه العقيدة اسميًا.
المحاولة التوحيدية هي جزئيًا رد على مخاوف الإشراف: إذا أعطت أنظمة الذكاء الاصطناعي المختلفة مخرجات مختلفة لنفس المدخلات، أو إذا لم يكن أحد لديه حساب كامل لأي أنظمة ذكاء اصطناعي تساهم في أي القرارات، فإن الإشراف البشري الهادف على الاستهداف بمساعدة الذكاء الاصطناعي يصبح صعبًا للغاية. يخلق التوحيد قابلية التدقيق — القدرة على معرفة أي نموذج، وأي إصدار، وتحت أي إعدادات أمان، شارك في سلسلة قرار معينة.
سؤال العمارة الأخلاقية
يجادل النقاد في مجتمع أخلاقيات الذكاء الاصطناعي بأن التوحيد يعالج مشكلة الحوكمة لكنه لا يحل السؤال الأخلاقي الأساسي: ما إذا كان يجب استخدام الذكاء الاصطناعي في قرارات الاستهداف على الإطلاق، وإن كان الأمر كذلك، تحت أي قيود. وضع جميع موفري الذكاء الاصطناعي العسكري على نفس الخط الأساس يعني تحديد ماهية ذلك الخط — القيم والسياسات الأمنية والاستخدامات المحظورة التي يتم تضمينها في المعيار. يحدث هذا العملية التعريفية إلى حد كبير خارج الأنظار العامة.
الرهانات الخاصة بالقيام بذلك بشكل صحيح عالية. أنظمة الذكاء الاصطناعي التي تدخل التحيز في قرارات الاستهداف أو التي تهلوس تقييمات التهديد أو التي يتم التعامل بها من خلال المدخلات المعاكسة يمكن أن تساهم في أخطاء كارثية في حالات القتال. محاولة البنتاغون التوحيدية هي إقرار بهذا الخطر — لكن كفاية الرد سيتم الحكم عليه في النهاية من خلال كيفية أداء الأنظمة في ظروف تشغيلية لا يمكن توقعها بالكامل مقدمًا.
تستند هذه المقالة إلى التقارير الواردة من MIT Technology Review. اقرأ المقالة الأصلية.

