تقييس الذكاء الاصطناعي عبر المؤسسة الدفاعية
يقوم البنتاغون بجهد منسق للحصول على سجله المتزايد من موفري الذكاء الاصطناعي على ما يصفه المسؤولون بأنه "نفس الأساس"، مع تأسيس معايير موحدة لكيفية تطوير واختبار ونشر وحكم أنظمة الذكاء الاصطناعي داخل الجيش. تعكس المبادرة، التي وضعتها رئيسة أبحاث وزارة الدفاع، التحديات المتعلقة بإدارة نظام ذكاء اصطناعي متسع يشمل العشرات من الشركات والعديد من الفروع العسكرية ومجموعة واسعة من التطبيقات من تحسين الخدمات اللوجستية إلى دعم القرارات على الساحة الحربية.
مع تسريع وزارة الدفاع اعتماد الذكاء الاصطناعي على مدى السنوات القليلة الماضية، تعاقدت مع مجموعة متنوعة من موفري التكنولوجيا، تتراوح بين مقاولي الدفاع الكبار مثل Lockheed Martin و Raytheon إلى شركات وادي السيليكون مثل Palantir و Anduril إلى شركات ناشئة متخصصة في الذكاء الاصطناعي. تجلب كل من هذه الشركات ممارساتها الخاصة في التطوير ومنهجيات الاختبار والمقاربات المتعلقة بالسلامة والأخلاقيات. والنتيجة هي مشهد الذكاء الاصطناعي داخل الجيش الذي يتسم بعدم التجانس التقني وفي بعض الحالات يصعب إدارته بشكل متسق.
ما تعنيه "نفس الأساس" في الممارسة العملية
يشمل جهد التقييس عدة أبعاد من تطوير ونشر الذكاء الاصطناعي:
- الاختبار والتقييم: تريد وزارة الدفاع من جميع موفري الذكاء الاصطناعي استخدام طرق قابلة للمقارنة لاختبار أداء أنظمتهم وموثوقيتها ومقاييس الفشل. يشمل هذا مهام معيارية موحدة ومقاييس تقييم مشتركة والبنية التحتية للاختبار المشتركة التي تسمح بمقارنة الأنظمة المختلفة على أساس متكافئ.
- السلامة والمتانة: يجب أن تستوفي أنظمة الذكاء الاصطناعي المنتشرة في السياقات العسكرية معايير الحد الأدنى للمرونة في مواجهة الهجمات الخصومة والتدهور السلس عندما تقع المدخلات خارج توزيعات التدريب والسلوك المتوقع في الظروف القاسية التي تميز العمليات العسكرية.
- حوكمة البيانات: تشمل المبادرة معايير لكيفية الحصول على بيانات التدريب وتسميتها وتخزينها ومشاركتها عبر الموفرين. جودة البيانات هي محدد حاسم لأداء نظام الذكاء الاصطناعي، والممارسات البيانية غير المتسقة عبر الموفرين يمكن أن تؤدي إلى نتائج غير متسقة.
- قابلية التشغيل البيني: تحتاج أنظمة الذكاء الاصطناعي العسكرية بشكل متزايد إلى التواصل مع بعضها البعض ومع البنية التحتية الحالية للقيادة والسيطرة. معايير الواجهة المشتركة وتنسيقات البيانات ضرورية لتمكين هذا التكامل.
- التوثيق والقابلية للتدقيق: يُتوقع من الموفرين الاحتفاظ بسجلات تفصيلية لكيفية تدريب أنظمتهم وما هي البيانات المستخدمة والاختبارات التي تم إجراؤها والقيود التي تم تحديدها. هذا التوثيق حاسم لكل من الثقة التشغيلية والمسؤولية القانونية.
البعد الأخلاقي
أحد أكثر جوانب جهد تقييس الذكاء الاصطناعي في البنتاغون التي يتابعها الجميع هو تقاطعه مع مبادئ الذكاء الاصطناعي الأخلاقية في الوزارة. اعتمدت وزارة الدفاع مبادئ أخلاقيات الذكاء الاصطناعي في عام 2020، مع تأسيس خمسة التزامات: يجب أن تكون أنظمة الذكاء الاصطناعي مسؤولة وعادلة وقابلة للتتبع وموثوقة وقابلة للحكم. تم الثناء على هذه المبادئ من قبل البعض باعتبارها إطار عمل ذي مغزى للذكاء الاصطناعي العسكري المسؤول وانتقدتها البعض الآخر لكونها غامضة جداً بحيث لا تقيد قرارات التطوير والنشر الفعلية.
أكدت رئيسة أبحاث وزارة الدفاع أن جهد التقييس مصمم لتفعيل تلك المبادئ، وليس لاستبدالها. من خلال تأسيس معايير ملموسة للاختبار والتوثيق والسلامة التي يجب أن يستوفيها جميع الموفرين، تهدف الوزارة إلى إعطاء مبادئ الأخلاقيات قوة عملية. الفكرة هي أن المبادئ المجردة مثل "قابلية التتبع" تصبح ذات معنى عندما يتم ترجمتها إلى متطلبات محددة للتسجيل والتدقيق وشرح قرارات نظام الذكاء الاصطناعي.
هذا مهم بشكل خاص عندما ينتقل الجيش نحو تطبيقات ذكاء اصطناعي أكثر عاقبة. أنظمة الذكاء الاصطناعي التي تحسن سلاسل الإمداد اللوجستية تثير مخاوف أخلاقية مختلفة عن أنظمة الذكاء الاصطناعي التي تحدد الأهداف أو توصي باستخدام القوة. الجهد المبذول في التقييس يقصد به ضمان أن إطار الحكم يتسع بشكل مناسب مع الرهانات المرتفعة للتطبيق.
تحديات التقييس
تأسيس معايير ذكاء اصطناعي موحدة عبر المؤسسة الدفاعية هو تحد هائل لعدة أسباب. التكنولوجيا نفسها تتطور بسرعة، والمعايير المناسبة اليوم قد تصبح قديمة الطراز في غضون بضع سنوات. تنوع تطبيقات الذكاء الاصطناعي داخل الجيش يعني أن نهجاً واحداً يناسب الجميع من غير المرجح أن يعمل؛ المعايير الخاصة بنظام معالجة لغة طبيعية يلخص تقارير الاستخبارات ستختلف بالضرورة عن معايير نظام رؤية الحاسوب الذي يوجه المركبات المستقلة.
هناك أيضاً توتر بين التقييس والابتكار. احتضن مجتمع الذكاء الاصطناعي الدفاعي بشكل متعمد نظاماً متنوعاً من الموفرين بالضبط لأن الشركات المختلفة تجلب مقاربات مختلفة، وهذا التنوع يدفع الابتكار. قد تؤدي المعايير الصارمة بشكل مفرط إلى إحباط التجارب التي تنتج قدرات اختراق، بينما قد تفشل المعايير الفضفاضة بشكل مفرط في معالجة المخاطر الحقيقية لنشر الذكاء الاصطناعي في السياقات العسكرية.
سيتطلب التنقل في هذا التوتر من وزارة الدفاع اعتماد إطار معايير يكون صارماً بما يكفي لضمان السلامة والمساءلة بينما يكون مرناً بما يكفي لاستيعاب الوتيرة السريعة لتطوير الذكاء الاصطناعي. يشير المسؤولون إلى أنهم يسعون لاتباع نهج متدرج، مع متطلبات أساسية تنطبق على جميع أنظمة الذكاء الاصطناعي والمتطلبات الإضافية التي تتسع مع حساسية وعاقبة التطبيق.
رد فعل الصناعة
كان رد فعل صناعة الذكاء الاصطناعي الدفاعي على جهد التقييس إيجابياً بشكل عام، وإن لم يكن بدون تحفظات. مقاولو الدفاع الكبار، الذين اعتادوا على متطلبات تنظيمية واسعة النطاق، يميلون إلى الترحيب بمعايير واضحة لأنها تقلل من عدم اليقين وتوفر ميزة تنافسية للشركات التي لديها الموارد للامتثال. ومع ذلك، أعربت الشركات الناشئة الأصغر عن القلق من أن متطلبات الامتثال المرهقة قد تؤثر بشكل غير متناسب على الشركات الأصغر وتبطئ وتيرة الابتكار.
أشارت وزارة الدفاع إلى أنها تسعى للحصول على مدخلات الصناعة حول تطوير إطار المعايير الخاص بها، مع الاعتراف بأن المعايير الفردية من أعلى لأسفل من غير المرجح أن تكون فعالة مثل تلك التي تم تطويرها بشكل تعاوني. تم عقد عدة مجموعات عمل صناعية لتقديم تعليقات على منهجيات الاختبار المقترحة ومتطلبات التوثيق ومعايير السلامة.
سيكون لنتيجة هذا الجهد المبذول في التقييس آثار تتجاوز المجال العسكري. باعتبار وزارة الدفاع أكبر مستهلك واحد لتكنولوجيا الذكاء الاصطناعي في الولايات المتحدة، فإن قرارات المعايير الخاصة بها ستؤثر على كيفية قيام شركات الذكاء الاصطناعي بتطوير منتجاتها وكيفية اقتراب صناعة التكنولوجيا الأوسع من سلامة الذكاء الاصطناعي والحكم. الحصول على ذلك بشكل صحيح مهم ليس فقط للأمن القومي ولكن لمسار تطوير الذكاء الاصطناعي ككل.
هذه المقالة تستند إلى تقارير من Defense One. اقرأ المقالة الأصلية.




