دخلت دفعة البنتاغون نحو الذكاء الاصطناعي مرحلة جديدة
تقول وزارة الدفاع الأمريكية إنها توصلت إلى اتفاقات مع سبع شركات تكنولوجية لإدخال الذكاء الاصطناعي إلى شبكات حاسوبية عسكرية مصنفة، وهي خطوة تشير إلى السرعة التي يجري بها دمج الذكاء الاصطناعي في اتخاذ القرار العملياتي. والشركات المذكورة في التقرير المقدم هي Google وMicrosoft وAmazon Web Services وNvidia وOpenAI وReflection وSpaceX.
ويقول البنتاغون إن الهدف هو المساعدة في تعزيز اتخاذ القرار لدى المقاتلين في البيئات العملياتية المعقدة. هذه الصياغة واسعة، لكن دلالاتها واضحة. لم يعد الذكاء الاصطناعي يُطرح بوصفه مجرد أداة تجريبية خلف الكواليس. بل يجري وضعه أقرب إلى تنفيذ المهمة، حيث يمكن للسرعة والتفسير واللوجستيات وسير العمل المرتبط بتحديد الأهداف أن تحمل جميعها رهانات عالية.
ما الذي توحي به العقود
كانت وزارة الدفاع تسرّع تبنّي الذكاء الاصطناعي منذ سنوات، وهذه الاتفاقات تعزز هذا الاتجاه. ويقول المصدر المقدم إن الذكاء الاصطناعي يمكن أن يقلل الوقت اللازم لتحديد الأهداف وضربها، مع المساعدة أيضًا في تنظيم الصيانة وسلاسل الإمداد. ويشرح هذا المزيج سبب اهتمام وكالات الدفاع: فالميزة العسكرية غالبًا ما تعتمد على معالجة المعلومات أسرع من الخصم مع الحفاظ على تشغيل الأنظمة التقنية الكبيرة تحت الضغط.
كما أن إدخال مزودي الذكاء الاصطناعي التجاريين إلى البيئات المصنفة يعكس واقعًا عمليًا. فجزء كبير من أكثر قدرات الذكاء الاصطناعي تقدمًا يُطوَّر في القطاع الخاص. وبدلاً من بناء كل أداة ذات صلة داخليًا، يبدو أن البنتاغون يضم أبرز مطوري النماذج ومزودي الخدمات السحابية وشركات أشباه الموصلات ومشغلي الأنظمة إلى دائرة التوريد الخاصة به.
الأسئلة الأخلاقية لم تختف
وفي الوقت نفسه، يوضح التقرير أن البيئة السياسية لا تزال غير مستقرة. ويخشى المنتقدون من أن يتوغل الذكاء الاصطناعي في خصوصية الأمريكيين أو يسمح للآلات باختيار الأهداف في ساحة المعركة. وقالت إحدى الشركات المشاركة في الاتفاقات الجديدة إن عقدها يتطلب إشرافًا بشريًا في بعض الحالات، وهي تفصيلة مهمة لأنها تشير إلى أنه لا يوجد حتى بين المتعاقدين إجماع مستقر حول أين ينبغي أن تتوقف الأتمتة.
هذه المخاوف ليست نظرية. ويشير المصدر إلى أن العمليات العسكرية المعززة بالذكاء الاصطناعي في صراعات أخرى زادت المخاوف من أن تسهم هذه الأنظمة في إلحاق الأذى بالمدنيين إذا استُخدمت في أوضاع هشة وسريعة الحركة مع معلومات غير مكتملة. ولهذا السبب يظل الجدل حول الحكم البشري، وتدريب المشغلين، وموثوقية الأنظمة في صميم النقاش.
السرعة مقابل السيطرة
تصف هيلين تونر من مركز الأمن والتكنولوجيا الناشئة في جامعة جورجتاون، كما ورد في المصدر، التوتر الأساسي جيدًا: فالحرب الحديثة تتضمن على نحو متزايد أشخاصًا في مراكز القيادة يتخذون قرارات معقدة في سيناريوهات مربكة وسريعة التطور. ويمكن للذكاء الاصطناعي أن يساعد في تلخيص المعلومات أو تحليل لقطات المراقبة، لكن فائدته لا تلغي خطر الإفراط في الثقة.
وهذا يخلق مشكلة تنفيذ صعبة للبنتاغون. فالجيش يريد نشرًا سريعًا لأنه يرى في الذكاء الاصطناعي ميزة استراتيجية. لكن الإطلاق السريع قد يتعارض مع العمل الأبطأ المتمثل في تدريب المشغلين، ووضع العقيدة، وإنشاء الضمانات اللازمة عندما تكون الأنظمة مخطئة أو غير يقينية أو تُستخدم خارج نطاقها المقصود.
عمليًا، السؤال الصعب ليس ما إذا كان الذكاء الاصطناعي سيُستخدم أم لا. فهو يُستخدم بالفعل. والسؤال هو إلى أي مدى يحتفظ البشر بسلطة التقدير، وكيف يتم التحقق من المخرجات، وكيف يُدرَّب القادة على التعامل مع الاقتراحات التي تولدها النماذج في بيئات قد تكون فيها الأخطاء غير قابلة للإصلاح.
غياب Anthropic يبرز
تكشف قائمة المتعاقدين أيضًا عن خطوط صدع سياسية وأخلاقية في صناعة الذكاء الاصطناعي. فشركة Anthropic غائبة بشكل ملحوظ. ووفقًا للتقرير المقدم، فقد تركز نزاع الشركة مع إدارة ترامب على مخاوف السلامة والأخلاقيات المتعلقة بالاستخدام العسكري. وسعت الشركة إلى ضمانات بأن تقنيتها لن تُستخدم في أسلحة ذاتية التشغيل بالكامل أو في مراقبة الأمريكيين، بينما أصر وزير الدفاع Pete Hegseth على أن الجيش يجب أن يحتفظ بخيار استخدام الأنظمة لأي غرض قانوني.
هذا الخلاف مهم لأنه يسلط الضوء على انقسام أعمق بين الشركات المستعدة للدخول في ترتيبات دفاعية واسعة وتلك التي تحاول وضع شروط أضيق. ومع ازدياد قدرات أنظمة الذكاء الاصطناعي، قد تصبح هذه الحدود التعاقدية واحدة من أهم أدوات الحوكمة المتاحة.
- ستوفر سبع شركات قدرات الذكاء الاصطناعي لشبكات البنتاغون المصنفة.
- الهدف المعلن هو دعم اتخاذ القرار في البيئات العملياتية المعقدة.
- لا تزال المخاوف قائمة بشأن الاستقلالية والخصوصية والأذى الذي يلحق بالمدنيين.
- غياب Anthropic يبرز الخلافات غير المحسومة حول الضوابط العسكرية.
اختبار حاسم للذكاء الاصطناعي التطبيقي
تمثل هذه الصفقات لحظة مهمة لأنها تنقل الذكاء الاصطناعي إلى ما هو أبعد من التطبيقات الاستهلاكية وبرامج الإنتاجية إلى أحد أكثر المجالات حساسية التي يمكن لأي تقنية أن تدخلها. فالمؤسسات العسكرية تقدر السرعة والحجم والميزة المعلوماتية. ويَعِد الذكاء الاصطناعي بهذه العناصر الثلاثة. لكنه يضيف أيضًا الغموض والهشاشة وإغراء الاعتماد على أنظمة قد تبدو واثقة حتى عندما تكون مخطئة.
وهذا يعني أن أحدث عقود البنتاغون ليست مجرد أخبار مشتريات. بل هي اختبار مبكر لكيفية حوكمة الذكاء الاصطناعي المتقدم عندما يُقاس ثمن الفشل ليس بخسارة الكفاءة، بل بالأرواح والمساءلة والاستقرار الاستراتيجي.
هذه المقالة تستند إلى تقرير من Fast Company. اقرأ المقال الأصلي.
