الذكاء الاصطناعي في سلسلة القتل

كان دمج الذكاء الاصطناعي في استهداف عسكري أحد أكثر التطورات المراقبة عن كثب والأقل شفافية في الحرب الحديثة. الآن، كشف مسؤول بوزارة الدفاع يتحدث تحت غطاء من عدم الكشف عن هويته للمرة الأولى عن رؤى محددة حول كيفية استخدام الذكاء الاصطناعي التوليدي – نفس التكنولوجيا التي تدعم ChatGPT والنماذج اللغوية الكبيرة الأخرى – لمساعدة قرارات الاستهداف في الحملة العسكرية الأمريكية المستمرة ضد إيران.

وفقاً للمسؤول، الذي طلب عدم الكشف عن هويته بسبب حساسية الموضوع، يتم استخدام أنظمة الذكاء الاصطناعي التوليدي كطبقة تحليل حوارية فوق بيانات الاستخبارات والاستهداف الموجودة. يتم إدخال قائمة بالأهداف المحتملة في نظام الذكاء الاصطناعي، والذي يُطلب منه تحليل المعلومات وترتيب أولويات الأهداف وتوليد توصيات بناءً على عوامل تشمل تحديد موضع الطائرات وأهداف المهمة والاستخبارات المتاحة. يقوم المشغلون البشريون بعد ذلك بمراجعة وتقييم وتحمل المسؤولية عن تنفيذ هذه التوصيات.

تقنيتا ذكاء اصطناعي مختلفتان

يسلط حساب المسؤول الضوء على تمييز مهم غالباً ما يُفقد في النقاشات العامة حول الذكاء الاصطناعي في الحرب: يقوم البنتاغون بنشر نوعين مختلفين بشكل أساسي من الذكاء الاصطناعي لوظائف ذات صلة لكن متميزة.

Project Maven، الذي يعمل منذ عام 2017 على الأقل، يستخدم رؤية الحاسوب والتعلم الآلي لمعالجة الأحجام الضخمة من بيانات الصور والمستشعرات التي تجمعها الأنظمة المراقبة – لقطات الطائرات بدون طيار والصور الفضائية واستخبارات الإشارات. يحدد Maven الأهداف المحتملة ضمن هذه البيانات ويقدمها للمشغلين البشريين من خلال واجهة قائمة على الخريطة. هذا هو الذكاء الاصطناعي كمعالج بيانات ومعترف بالأنماط، يعمل على مهام محددة جيداً وخاضعة للإشراف.

الذكاء الاصطناعي التوليدي – الأنظمة المبنية على نماذج اللغة الكبيرة – مختلف في النوع. هذه الأنظمة حوارية ومرنة وقادرة على التفكير عبر أنواع متنوعة من المعلومات. يمكنهم دمج الاستخبارات من مصادر متعددة وتوليد التقييمات المكتوبة والإجابة على الأسئلة المفتوحة. لكنهم أيضاً أقل اختباراً في القتال، وأقل شفافية في منطقهم، وأكثر عرضة لأنواع الإخراج الواثق لكن الخاطئ التي يسميها الخبراء الهلوسة.

مسألة الإنسان في الحلقة

كان المسؤول صريحاً بأن البشر يظلون مسؤولين عن تقييم توصيات الذكاء الاصطناعي واتخاذ قرارات الاستهداف النهائية. هذا الإطار الإنساني في الحلقة هو معيار في اتصالات البنتاغون حول الذكاء الاصطناعي، وينعكس على الالتزام السياسي الحقيقي والواقع العملياتي: لا يوجد قائد عسكري سيعهد بقرارات الحياة والموت بشكل كامل إلى خوارزمية.

لكن السؤال العملي حول مقدار الامتثال الذي يعطيه البشر لتوصيات الذكاء الاصطناعي – خاصة تحت الضغط الزمني والضغط المعرفي – أكثر تعقيداً مما يمكن لأي بيان رسمي أن يجسده. يكشف البحث في صنع القرار تحت عدم اليقين باستمرار أنه عندما تقدم الأنظمة التي تبدو حكومية توصيات واثقة، يميل الإشراف البشري إلى أن يصبح سطحياً وليس حقيقياً.

Claude و OpenAI وسباق عقود البنتاغون

تأتي تعليقات المسؤول وسط إعادة تشكيل درامية لعلاقة الذكاء الاصطناعي التجاري بالجيش الأمريكي. كان Claude من Anthropic أول نموذج لغة كبير معتمد للاستخدام المصنف من قبل البنتاغون وتم نشره بشكل مزعوم في العمليات في إيران وفنزويلا. لكن بعد نزاع مع البنتاغون حول ما إذا كان Anthropic يمكن أن يحد من كيفية استخدام نموذجه، عيّن وزير الدفاع Anthropic كخطر في سلسلة الإمدادات، ودعا الرئيس ترامب إلى إنهاء الاستخدام الحكومي لذكاء الاصطناعي للشركة في غضون ستة أشهر.

ملأت OpenAI الفراغ، معلنة في 28 فبراير عن اتفاق للجيش لاستخدام تقنياته في البيئات المصنفة. وصل xAI من Elon Musk إلى صفقة مماثلة لـ Grok. أدى سرعة هذه العلاقات التجارية – والفحص العام المحدود الذي تلقته – إلى انتقادات من باحثي سلامة الذكاء الاصطناعي وخبراء السيطرة على الأسلحة الذين يجادلون بأن دمج الذكاء الاصطناعي في الأنظمة العسكرية القاتلة يتقدم بسرعة أكبر مما يمكن لأطر الحوكمة استيعابها.

تستند هذه المقالة إلى تقارير MIT Technology Review. اقرأ المقالة الأصلية.