موجة جديدة من شركات الدفاع AI

تقاطع الذكاء الاصطناعي والقدرة العسكرية أنتج تاريخياً فئتين من الشركات: عمالقة الدفاع الكبار الذين يضيفون ميزات الذكاء الاصطناعي إلى الأنظمة الموجودة، وشركات التكنولوجيا التجارية التي ترخص الأدوات ثنائية الاستخدام للعملاء العسكريين. فئة ثالثة تظهر الآن بشكل متزايد — شركات ناشئة تبني أنظمة ذكاء اصطناعي مصممة من أساسها خصيصاً للتطبيقات العسكرية، بأرشيتكتشرات وبيانات تدريبية وملفات تشغيلية لا يتطلبها السوق التجاري ولا يتحملها.

يكشف فحص Defense One لهذا النظام البيئي للشركات الناشئة عن مجموعة من الشركات التي خلصت إلى أن احتياجات الجيش من الذكاء الاصطناعي مختلفة بما يكفي عن التطبيقات التجارية لتبرير حلول مخصصة بدلاً من تكييف التكنولوجيا التجارية الموجودة. الحجة التي تقدمها هذه الشركات هي أن متطلبات الموثوقية الشديدة، وبيئات البيانات المصنفة، والظروف المعادية، وسياقات صنع القرار الفريدة للعمليات العسكرية تتطلب أنظمة ذكاء اصطناعي صممت مع تلك المتطلبات كمبادئ أولى بدلاً من أفكار لاحقة.

يعكس توقيت ظهور هذه المجموعة تقاءً من العوامل: القدرة المثبتة للنماذج الذكاء الاصطناعي الكبيرة عبر المجالات المعقدة، والمركزية المتزايدة لمعالجة المعلومات ودعم القرار في الحرب الحديثة، توفر رأس المال الاستثماري المتدفق نحو تكنولوجيا الدفاع، وبيئة تنظيمية وشراء أصبحت أكثر استقبالاً للمقاولين الدفاعيين غير التقليديين منذ أن بدأت مبادرات الابتكار الدفاعي في أوائل عام 2020 تحقق نتائجها.

لماذا AI العسكري مختلف

تختلف المتطلبات المفروضة على أنظمة الذكاء الاصطناعي في السياقات العسكرية عن التطبيقات التجارية بطرق أكثر من الزيادات الهامشية. فشل الذكاء الاصطناعي التجاري يُقاس بشكاوى العملاء وأضرار العلامة التجارية وخسارة الإيرادات. قد يكلف فشل الذكاء الاصطناعي العسكري أرواحاً، أو تقويض المهام، أو في أسوأ الحالات إنشاء أزمات استراتيجية مع الحلفاء أو الخصوم. تتطلب هذه عدم التناسق في العواقب مقاربات مختلفة للموثوقية والتحقق والسلامة التشغيلية عما تفترضه معايير النشر التجاري.

البيانات مختلف بشكل خاص. أقيم بيانات التدريب للذكاء الاصطناعي العسكري — اعتراضات الاتصالات وصور المراقبة والسجلات التشغيلية وقواعد بيانات التهديدات — مصنفة ولا يمكن استخدامها لتدريب النماذج التجارية. يجب على الشركات التي تبني ذكاء اصطناعي عسكري محدد إما بناء أنابيب تدريب مصنفة خاصة بها، أو العمل ضمن بيئات البيانات الحكومية، أو تطوير أرشيتكتشرات يمكن تدريبها بشكل فعال على البيانات غير المصنفة وضبطها على البيانات المصنفة دون المساس بحدود الأمان بطرق قد توقفها أجسام الرقابة.

تختلف متطلبات المتانة المعادية أيضاً. يتم تقييم الذكاء الاصطناعي التجاري عموماً مقابل توزيع المدخلات التي ينتجها المستخدمون الحقيقيون. يجب أن يكون الذكاء الاصطناعي العسكري قوياً ضد الخصوم الذين سيختبرون بنشاط الأنظمة للضعف، ويحاولون خداع الأجهزة الاستشعار وتغذيات البيانات التي توفر مدخلات النموذج، وينفقون الموارد في فهم وهزيمة أنظمة الذكاء الاصطناعي التي تهدد عملياتهم. هذا ينشئ متطلب تقييم واختبار احمر مختلف بشكل أساسي عما لا يعالجه اختبار السلامة AI التجاري بشكل كافٍ.

الشركات الناشئة الرئيسية ومقارباتها

يتضمن المشهد الناشئ شركات تركز على طبقات مختلفة من مكدس AI العسكري. يبني البعض منصات تحليل المخابرات التي تساعد المحللين على معالجة وتركيب كميات ضخمة من الصور والإشارات والبيانات مفتوحة المصدر لإنتاج تقييمات ذكاء قابلة للتنفيذ أسرع مما يمكن للمحللين البشريين العاملين وحدهم تحقيقه. يطور آخرون أنظمة دعم القرار للتخطيط التشغيلي — أدوات تساعد القادة على نمذجة مسارات العمل وتقييم قيود الإمدادات والتنبؤ بردود الخصوم.

مجال نشط بشكل خاص هو تنسيق الأنظمة المستقلة — منصات AI التي تدير أسراب المركبات الجوية بدون طيار أو الروبوتات الأرضية أو المركبات البحرية المستقلة، مما يتيح لفرق صغيرة التحكم في أعداد كبيرة من الأنظمة في بيئات متنازع عليها حيث قد تكون الاتصالات مضعوفة أو مرفوضة. تتطلب أنظمة التنسيق هذه ذكاء اصطناعي قوياً ضد المعلومات الجزئية واضطرابات الاتصالات والحرب الإلكترونية المعادية، وهي ظروف لا توجد نظير تجاري لها.

يمثل تحسين الإمدادات وسلسلة التوريد أولوية مجال آخر. الإمدادات العسكرية معقدة بشكل غير عادي، تدير حركة الموظفين والمعدات والذخيرة والوقود وقطع الصيانة عبر شبكات عالمية في ظروف تتراوح من عمليات الحامية في وقت السلم إلى النزاع النشط. أنظمة الذكاء الاصطناعي التي يمكن أن تحسّن هذه التدفقات وتتوقع النقص وتتكيف مع الاضطرابات لها قيمة كبيرة يرغب العملاء العسكريون بشكل متزايد في الدفع مقابلها مع آليات التسهيل المصممة لتسريع الاستحواذ.

تطور اشتراء AI من قبل البنتاغون

وزارة الدفاع طورت بشكل كبير مقاربة اكتساب الذكاء الاصطناعي على مدى السنوات القليلة الماضية، بالانتقال من مقاربات برنامج السجل المخصصة نحو آليات شراء أكثر رشاقة مناسبة بشكل أفضل لقدرات AI الكثيفة البرمجيات التي تتكرر بشكل أسرع مما تستوعبه دورات اكتساب الدفاع التقليدية. لعب مكتب الرئيس للرقمية والذكاء الاصطناعي دوراً مركزياً في تطوير مركبات العقود والمعايير التي تسمح للبائعين غير التقليديين بالمنافسة بشكل فعال على عمل دفاع AI.

Joint Warfighting Cloud Capability، جنباً إلى جنب مع توفر متزايد لبيئات الحوسبة السحابية المصنفة، قللت من حاجز البنية التحتية للشركات الناشئة التي تسعى للعمل في إعدادات مصنفة. لا تحتاج الشركات بعد الآن إلى بناء بيئات حوسبة مصنفة خاصة بها لتطوير ونشر AI لعملاء عسكريين — يمكنهم الاستفادة من البنية التحتية السحابية الحكومية التي توفر الضوابط الأمنية المطلوبة مع تمكين ممارسات تطوير البرمجيات الحديثة التي يتطلبها تطوير AI.

تدفقات رأس المال الاستثماري نحو دفاع AI زادت بشكل كبير، مدفوعة جزئياً بتغيير المواقف الاجتماعية نحو استثمار الدفاع بعد غزو Russia لـ Ukraine والمعايرة الأوسع لآراء صناعة التكنولوجيا نحو مهام الأمن القومي. أعاد المستثمرون الذين تجنبوا تكنولوجيا الدفاع في السابق بسبب المبدأ أو التفضيل التجاري النظر، وظهرت صناديق رأس مال مستثمرة متخصصة في الدفاع لتوفير ليس فقط رأس المال بل خبرة تشغيلية في الملاحة في سوق الدفاع.

الأبعاد الأخلاقية والمنافسة الدولية

يثير الذكاء الاصطناعي العسكري أسئلة أخلاقية لا يعالجها خطاب AI التجاري، المركز بشكل أساسي على الانحياز والخصوصية واستبدال العمل، بشكل كامل. يظل الدور المناسب للذكاء الاصطناعي في صنع القرار المميت — سواء وتحت أي ظروف يجب السماح للأنظمة المستقلة بمشاركة الأهداف دون تفويض بشري — نقاشاً نشطاً للسياسة داخل الولايات المتحدة وفي المنتديات الدولية التي لم تنتج بعد قواعد ملزمة.

وفي الوقت نفسه، تستثمر الدول المعادية بكثافة في برامج AI العسكرية دون النقاش الأخلاقي الذي يميز النقاشات الأمريكية والحليفة. برامج China العسكرية AI كبيرة وأقل تقييداً من المتطلبات التي تفرضها السياسة الأمريكية حالياً للأسلحة المستقلة المميتة. ينشئ هذا عدم التناسق ضغطاً تنافسياً للتحرك بشكل أسرع يعترف به مسؤولو الدفاع بشكل علني حتى مع الحفاظ على التزامات التطوير المسؤول للذكاء الاصطناعي.

الشركات الناشئة التي تبني ذكاء اصطناعي عسكري محدد تعمل عند تقاطع هذه الضغوط — بحاجة إلى تطوير أنظمة قادرة بسرعة كافية لتكون ذات صلة في المنافسة القريبة المدى مع بناء ميزات السلامة والتفسير والإشراف البشري التي يتطلبها النشر المسؤول. الطريقة التي يتنقلون بها هذا التوتر، وكيف يقيمها عملاؤهم الحكوميون، ستشكل مسار الحرب القائمة على الذكاء الاصطناعي للسنوات القادمة.

تستند هذه المقالة إلى تقرير من Defense One. اقرأ المقالة الأصلية.