انتكاسة لواشنطن في حملتها على مزوّد رئيسي للذكاء الاصطناعي

حقق Anthropic انتصارًا مبكرًا مهمًا في نزاعه المتصاعد مع الحكومة الأميركية، بعدما أصدر قاضٍ فيدرالي أمرًا قضائيًا أوليًا يمنع الوكالات من تنفيذ الأوامر التي تصف الشركة بأنها خطر على سلسلة التوريد، إلى أن تُحسم القضية. لكن خلال ساعات، ردّت قيادة البنتاغون علنًا، مؤكدة أن جزءًا من الحظر الحكومي على Anthropic ما زال قائمًا.

تدور هذه القضية حول صدام بين سلطة المشتريات الفيدرالية ومحاولة شركة ذكاء اصطناعي فرض قيود على كيفية استخدام نماذجها. وأفاد موقع Breaking Defense بأنه بعد رفض Anthropic قبول صياغة تعاقدية تسمح بـ“جميع الاستخدامات المشروعة” لـ Claude AI من قبل الجيش، وجّه الرئيس دونالد ترامب في 27 فبراير الوكالات الفيدرالية إلى التوقف فورًا عن استخدام تقنية Anthropic. ثم كتب وزير الدفاع بيت هيغسيث على منصة X أن أي متعاقد أو مورد أو شريك يتعامل مع الجيش الأميركي لا يمكنه ممارسة نشاط تجاري مع Anthropic.

الحكم: يبدو انتقامًا على الأرجح، لا قرارًا محايدًا بشأن المخاطر

في 4 مارس، تبعت الإدارة ذلك برسالتين رسميتين تصفان Anthropic بأنها خطر على سلسلة التوريد بموجب قانونين مختلفين: أحدهما يطبّق على الحكومة الفيدرالية بأكملها، والآخر مخصص لوزارة الدفاع. وردّت Anthropic برفع دعويين قضائيتين، طعنت فيهما في الإجراء الفيدرالي الأوسع والتصنيف الخاص بالدفاع.

يوقف الأمر القضائي الأولي الذي أصدرته القاضية Rita Lin الآن تنفيذ الأوامر بالنسبة إلى الوكالات الفيدرالية الـ17 المذكورة كمدعى عليهم في قضية كاليفورنيا إلى حين حسم التقاضي. وفي فقرة لافتة نقلها Breaking Defense، كتبت Lin أن السجل “يشير بقوة” إلى أن الأسباب المقدمة لتصنيف Anthropic كانت شكلية، وأن الدافع الحقيقي للحكومة كان انتقامًا غير مشروع. وبإصدارها الأمر، خلصت إلى أن Anthropic مرجح أن ينجح في دعواه، وهو معيار مرتفع في هذه المرحلة من التقاضي.

هذه الصياغة مهمة. فالأوامر القضائية الأولية ليست أحكامًا نهائية، لكنها تشير إلى أن المحكمة ترى احتمالًا جديًا بأن الإجراء المطعون فيه كان غير سليم. وعمليًا، يعطّل الأمر محاولة حكومية رفيعة المستوى لعزل مزوّد رائد للذكاء الاصطناعي عن الأعمال الفيدرالية، ويرسل تحذيرًا بشأن مدى قدرة الوكالات على الذهاب بعيدًا عندما تتداخل النزاعات التجارية مع خطاب الأمن القومي.

رد البنتاغون يظهر أن المعركة بعيدة عن الانتهاء

لم يحسم الأمر القضائي الخلاف السياسي والقانوني الأساسي. وأفاد Breaking Defense بأن وكيل وزارة الدفاع وكبير مسؤولي التكنولوجيا Emil Michael جادل على وسائل التواصل الاجتماعي بأن القرار يحتوي على “عشرات الأخطاء الواقعية”، وقال إن تصنيف خطر سلسلة التوريد لا يزال “ساريًا بالكامل” بموجب القانون ذي النطاق الحكومي الشامل، والذي زعم أنه لا يخضع لولاية القاضية Lin.

يكشف هذا الرد عن تفتت أعمق في كيفية سعي الحكومة إلى الدفاع عن موقفها. فحتى مع وجود أمر قضائي، يبدو أن المسؤولين مستعدون للقول إن سلطات قانونية منفصلة تبقي على الأقل بعض الأثر العملي للقائمة السوداء. وهذا يفتح الباب أمام معارك قضائية متداخلة، وتفسيرات متعارضة من الوكالات، واستمرار حالة عدم اليقين لدى المتعاقدين الذين يحتاجون إلى معرفة ما إذا كانت أدوات Anthropic مسموحًا بها في العمل الفيدرالي.

وتكمن أهمية القضية في أنها لا تتعلق فقط بمصالح شركة واحدة. بل تتعلق بما إذا كانت شركة ذكاء اصطناعي تستطيع رفض صياغة تعاقدية عسكرية تراها واسعة جدًا من دون أن تُستبعد عبر سلطات شراء ترتبط عادة بمخاوف تقليدية أكثر بشأن سلسلة التوريد. وإذا خلصت المحاكم إلى أن الحكومة استخدمت تلك السلطات كعقاب على خلاف سياسي، فقد يؤثر الحكم في كيفية تطور النزاعات المتعلقة بحوكمة الذكاء الاصطناعي عبر العقود الفيدرالية.

لماذا يهم ذلك قطاع الذكاء الاصطناعي

بالنسبة إلى شركات الذكاء الاصطناعي، تتحول معركة Anthropic إلى اختبار مبكر لمدى النفوذ الذي تتوقعه الحكومة الأميركية على مزودي النماذج التجارية الذين يريدون أعمالًا فيدرالية، لكنهم يريدون أيضًا تحديد حدود النشر. ويشتد هذا التوتر خصوصًا في سياقات الأمن القومي، حيث قد تسعى الوكالات إلى أقصى درجات المرونة بينما قد يسعى المزودون إلى الحفاظ على ضوابط مرتبطة بالمراقبة أو استخدام الأسلحة أو المخاطر على السمعة.

كما يضع التقاضي ضغطًا على عبارة “خطر سلسلة التوريد”. فهذه العبارة تقليديًا تستحضر مخاوف تتعلق بالموثوقية أو الاختراق أو التأثير الأجنبي أو الثغرات الخفية في الأنظمة الحيوية. أما هنا، فيشير التقييم الأولي للقاضية إلى أن التصنيف ربما استُخدم لشيء آخر تمامًا: الانتقام بعد خلاف حول شروط التعاقد. وإذا صح هذا التفسير، فقد تقيد القضية مدى قوة استخدام أدوات الشراء الحكومية ضد مزودي الذكاء الاصطناعي الذين يرفضون مطالب حكومية معينة.

في الوقت الراهن، تبدو النتيجة مختلطة لكنها ذات أثر واضح. فقد حققت Anthropic حكمًا مبكرًا مهمًا، وطُلب من الحكومة تعليق إجراءات أساسية بينما تستمر القضية. وفي الوقت نفسه، يشير مسؤولون في البنتاغون إلى أنهم لا يقبلون الآثار العملية للأمر القضائي بالاتساع الذي يُرجح أن Anthropic تراه.

وهذا يبعث برسالة واضحة إلى الصناعة. فالهيكل القانوني الذي يحكم الذكاء الاصطناعي في الحكومة لا يزال يُصاغ في الوقت الحقيقي، وبعض أهم قواعده قد لا تنشأ من التشريع أو إرشادات الوكالات، بل من معارك قضائية شاقة حول لغة العقود والانتقام وحدود السلطة التنفيذية.

هذه المقالة مبنية على تقرير Breaking Defense. اقرأ المقال الأصلي.

Originally published on breakingdefense.com