صفقة ذات آثار بعيدة المدى

مرّ أكثر من أسبوعين قليل على توصل OpenAI إلى اتفاق تاريخي يسمح بتمكين وزارة الدفاع الأمريكية من استخدام أنظمة الذكاء الاصطناعي الخاصة بها في بيئات عسكرية سرية. أثارت الصفقة انتباهاً كبيراً وقلقاً كبيراً بين باحثي الذكاء الاصطناعي وخبراء السيطرة على الأسلحة ومدافعي الحريات المدنية. مع انخراط القوات الأمريكية بنشاط في عمليات عسكرية ضد إيران—بما في ذلك ضربات على جزيرة خارج—يجعل التوقيت الآثار المترتبة على الاتفاق أكثر إلحاحاً مما توقعه معظم الناس.

المعاملات الأساسية للصفقة معروفة: ستسمح OpenAI بالاستخدام العسكري لنماذجها في بيئات سرية، مع إعلان Sam Altman علناً أن الاتفاق لا يسمح للجيش بناء autonomous weapons باستخدام تكنولوجيا الشركة، مع ادعاء إضافي بأن الترتيب يمنع تطبيقات المراقبة المحلية. لكن فحص الشروط الفعلية للاتفاق يكشف أن كلا القيدين يتم تطبيقهما بشكل أساسي من خلال إرشادات البنتاغون الخاصة به حول autonomous weapons systems—إرشادات تكون نفسها متساهلة جداً بمعايير دولية.

ما تقوله إرشادات البنتاغون حول Autonomous Weapons فعلاً

توجيه وزارة الدفاع بشأن Autonomous Weapons Systems يتطلب أن تحافظ lethal autonomous weapons على مستويات مناسبة من الحكم البشري على قرارات الإطلاق. لاحظ منتقدو هذه الصيغة بشكل متسق أنها لا تحدد ما يعنيه المناسب، لا تتطلب موافقة بشرية على كل قرار targeting فردي، وتسمح صراحة بأنظمة شبه ذاتية حيث يمكن للإنسان الموافقة على فئات targeting أو معاملات strike مقدماً دون الموافقة على كل engagement محدد.

يخلق هذا فجوة كبيرة بين الإطار العام لـ OpenAI—لن نسمح للجيش ببناء autonomous weapons—وما يسمح به الاتفاق فعلاً. بموجب معايير البنتاغون الخاصة، يمكن لنظام ذكاء اصطناعي يعالج sensor data ويحدد targets وينفذ strikes دون تفويض إنساني لكل طلقة أن يظل متوافقاً إذا وافق الإنسان على targeting rules مقدماً. ما إذا كان يمكن دمج نماذج OpenAI في مثل هذا النظام دون انتهاك الاتفاق ليس واضحاً علناً.

إيران كحالة اختبار

الصراع المستمر مع إيران يجعل هذه الأسئلة ملموسة بدلاً من افتراضية. يقوم Centcom بإجراء strike operations في منطقة الخليج الفارسي، وتنسيق الردود على asymmetric threats البحرية الإيرانية، وإدارة intelligence collection عبر battlespace معقد. كل من هذه الأنشطة ينطوي على فئات تطبيق ذكاء اصطناعي حيث يمكن دمج نماذج OpenAI بشكل محتمل.

على جانب intelligence، أثبتت large language models قدرتها على تجميع المعلومات من مصادر متعددة بسرعة، وترجمة الاتصالات باللغات الأجنبية، وتحديد الأنماط في البيانات المنظمة—جميع المهام ذات الصلة بـ military intelligence analysis. يُفهم على نطاق واسع أن هذه التطبيقات من بين الاستخدامات العسكرية الأساسية للـ commercial AI وتشكل مخاوف أخلاقية أقل من autonomous targeting.

أكثر إثارة للقلق هي التطبيقات المحتملة في target identification أو battle damage assessment، حيث يمكن لأنظمة الذكاء الاصطناعي معالجة imagery أو signals intelligence لتحديد military assets وتتبع movements أو تقييم نتائج strikes. هذه هي المناطق التي يصبح فيها التمييز بين decision support tool ونظام autonomous غامضاً—وحيث ستحدد الصيغة المحددة لاتفاق OpenAI ما إذا كان تطبيق معين مسموحاً به.

قيود المراقبة وحدودها

ادعاء Altman بأن الاتفاق يمنع استخدام تكنولوجيا OpenAI للمراقبة المحلية أكثر تعقيداً مما يبدو. التقييد كما هو موصوف ينطبق على domestic surveillance—جمع وتحليل البيانات على المواطنين الأمريكيين—لكنه لا يعالج foreign intelligence collection. في سياق العمليات العسكرية، المراقبة لاتصالات العدو العسكرية، وتتبع حركات السفن، ومراقبة اتصالات النظام الإيراني تندرج جميعها تحت foreign intelligence collection ولن تكون مغطاة بقيد domestic surveillance.

قد لا يعطي مدافعو الحريات المدنية الذين يركزون على مخاوف domestic surveillance أولوية للتطبيقات foreign intelligence التي يجدها قادة الجيش الأكثر قيمة. لكن الخلط بين الاثنين في الاتصالات العامة يشير إلى أن الإطار العام لـ OpenAI قد لا يعكس بالكامل نطاق التطبيقات العسكرية التي تمكنها الصفقة.

ما يبدو أن تكون دوافع OpenAI

OpenAI ليست أول شركة تكنولوجيا رئيسية تتنقل بين التوتر بين تطوير commercial AI والتطبيق العسكري. واجهت Google معارضة داخلية كبيرة على عقد Project Maven في عام 2018، وفي النهاية رفضت تجديده. استمرت Microsoft و Amazon في توسيع عقود الدفاع رغم بعض المعارضة الداخلية.

يشير قرار OpenAI بالدخول إلى السوق العسكري المصنف إلى حساب استراتيجي بأن المنافسة على عقود ذكاء اصطناعي حكومية مهمة لموقع الشركة على المدى الطويل، خاصة أثناء تنافسها مع Anthropic و Google DeepMind وشركات ذكاء اصطناعي مركزة على الدفاع مثل Scale AI و Palantir. ميزانية ذكاء الاصطناعي في البنتاغون تنمو بسرعة، والشركة التي تؤسس نفسها كشريك حكومي ذكاء اصطناعي موثوق به في وقت مبكر قد تضمن مزايا طويلة الأمد كبيرة.

هذا المقال يستند إلى تقارير من MIT Technology Review. اقرأ المقال الأصلي.