أداة الحرب الباردة في عصر التكنولوجيا الجديد

وصلت العلاقة بين وزارة الدفاع الأمريكية وواحدة من الشركات الرائدة في مجال الذكاء الاصطناعي في العالم إلى نقطة الانهيار. أصدر وزير الدفاع Pete Hegseth إنذارًا صارخًا إلى Anthropic: الموافقة على السماح للجيش باستخدام تكنولوجيا AI الخاصة به بدون قيود بحلول يوم الجمعة، أو مواجهة الطرد الكامل من سلسلة إمدادات الخماسي.

جاء التهديد خلال اجتماع متوتر في واشنطن يوم الثلاثاء، حيث استدعى Hegseth الرئيس التنفيذي لـ Anthropic Dario Amodei لما وصفه المصادر بأنه نقاش مواجهة حول رفض الشركة منح الجيش إمكانية الوصول الكاملة إلى نماذج AI الخاصة بها للعمليات المصنفة. كان من بين أكثر الطلبات إثارة للجدل الشروط الخاصة بقدرات المراقبة المحلية والمهام المميتة المستقلة بدون إشراف إنساني مباشر.

ربما الأكثر إثارة للدهشة كان استدعاء Hegseth لقانون الإنتاج الدفاعي، وهو قانون من حقبة الحرب الباردة يمنح الرئيس سلطات واسعة لإجبار الصناعات المحلية على خدمة أولويات الدفاع الوطني. صُمم في الأصل لضمان أنه يمكن للمصانع الانتقال إلى الإنتاج في زمن الحرب، لم يتم استخدام هذا القانون مطلقًا لإجبار شركة AI على تسليم تكنولوجيتها — مما يجعل هذا التهديد بدون سابقة في تاريخ السياسة التكنولوجية الأمريكية.

موقف Anthropic الذي يركز على السلامة تحت الضغط

ميزت Anthropic نفسها لفترة طويلة في صناعة AI من خلال التركيز على أبحاث السلامة والنشر المسؤول. تأسست الشركة بواسطة باحثي OpenAI السابقين Dario و Daniela Amodei، وقد بنت علامتها التجارية حول مفهوم AI الدستوري — الأنظمة المصممة مع حماية أخلاقية مدمجة بهدف منع الإساءة.

لقد وضعت هذه الفلسفة الموجهة نحو السلامة الآن الشركة في مسار تصادم مع الشهية المتزايدة للخماسي لدمج AI في جميع العمليات العسكرية. بينما لم تعترض Anthropic على جميع العقود الدفاعية، فقد رسمت حدودًا صارمة حول تطبيقات معينة، وخاصة تلك التي تتضمن القوة الفتاكة المستقلة بدون تحكم إنساني ذي مغزى وبرامج المراقبة الجماعية التي تستهدف السكان المحليين.

يعكس موقف الشركة نقاشًا أوسع داخل صناعة AI حول مكان رسم الحدود الأخلاقية. كافحت شركات AI الرئيسية الأخرى، بما فيها OpenAI و Google، أيضًا مع العقود العسكرية، على الرغم من أن معظمها كان أكثر استعدادًا للتفاوض على شروط الاشتباك مع وكالات الدفاع. لقد جعلت الخط الأصعب الذي اتخذته Anthropic نقطة جذب في دفع واشنطن المتزايد والعدواني نحو أسلحة الذكاء الاصطناعي.

قانون الإنتاج الدفاعي: سلاح غير معتاد

تم توقيع قانون الإنتاج الدفاعي في عام 1950، في المراحل المبكرة من الحرب الكورية. كان الغرض الأصلي منه مباشرًا: ضمان أن الصناعة الأمريكية يمكنها تحويل الإنتاج بسرعة لدعم احتياجات الدفاع. على مدى العقود، تم استدعاؤه لكل شيء من تصنيع أشباه الموصلات إلى سلاسل الإمدادات الطبية الوبائية.

لكن تطبيق قانون الإنتاج الدفاعي لإجبار شركة AI على منح إمكانية الوصول إلى نماذجها يمثل نوعًا مختلفًا بشكل أساسي من التدخل. بخلاف السلع المادية، نماذج AI هي ملكية فكرية تتشابك فيها القدرات والمخاطر بعمق. إجبار شركة على إزالة حماية السلامة من تكنولوجيتها يطرح أسئلة تتجاوز بكثير نزاعات الشراء التقليدية.

لاحظ خبراء قانونيون أن هذا الاستخدام لقانون الإنتاج الدفاعي قد يواجه على الأرجح تحديات قانونية فورية. صُمم القانون لأولويات الإنتاج وسلسلة الإمدادات، وليس لتجاوز سياسات السلامة الداخلية للشركة حول كيفية نشر تكنولوجيتها. أي محاولة لاستدعاء قد تضع سابقة بنتائج بعيدة المدى لقطاع التكنولوجيا بأكمله.

ردود الفعل الصناعية والآثار الأوسع

أرسلت الجمود موجات صدمة عبر وادي السيليكون. تراقب شركات AI الأخرى عن كثب، واعية بأن النتيجة قد تضع معايير جديدة لكيفية تفاعل الحكومة مع قطاع AI الخاص. عبر عدة قادة صناعيين بشكل خاص عن قلقهم من أن الاستسلام لمطالب الخماسي قد يقوض البحث في السلامة الذي يعتبره الكثيرون ضروريًا لمنع سوء الاستخدام الكارثي للـ AI.

كانت ردود الفعل في الكونجرس مختلطة. دعم الصقور في لجان الخدمات المسلحة موقف Hegseth، محتجين بأن الأمن الوطني يجب أن يسبق تفضيلات سلامة الشركات. حذر آخرون، خاصة أعضاء لجنة التجارة بمجلس الشيوخ، من أن الضغط على شركات AI قد يدفع المواهب والابتكار بالخارج، مما يضعف الموقف التنافسي الأمريكي في نهاية المطاف.

انتبهت الاتحاد الأوروبي أيضًا. أشار مسؤولو الاتحاد الأوروبي إلى المواجهة كدليل يدعم نهجهم الخاص الأكثر تنظيميًا لحكومة AI، حيث لاحظ دبلوماسي رفيع المستوى أن الحلقة تسلط الضوء على مخاطر ترك قرارات سلامة AI لنزوات المسؤولين السياسيين.

ماذا سيحدث بعد ذلك

ينقسم موعد نهائي يوم الجمعة بشكل كبير. إذا رفضت Anthropic الامتثال، يمكن لـ Hegseth المتابعة بتهديده بإزالة الشركة من قنوات الشراء الدفاعي، مما يقطع مصدر إيرادات كبير وينقل رسالة إلى شركات AI الأخرى. يبقى خيار قانون الإنتاج الدفاعي على الطاولة لكنه سيمثل تصعيدًا أكثر دراماتيكية مع نتائج قانونية غير مؤكدة.

بالنسبة إلى Anthropic، يكون الحساب وجوديًا. قد يقوض الاستسلام مبادئ السلامة التي تحدد هويتها المؤسسية وتقوض الثقة مع الموظفين الذين انضموا على وجه التحديد بسبب التزامات الشركة الأخلاقية. قد يقوض المقاومة ليس فقط عقود الحكومة ولكن أيضًا حسن النية السياسي في الوقت الذي تتشكل فيه تنظيمات AI بنشاط في واشنطن.

مهما كانت النتيجة، جعلت المواجهة شيئًا واحدًا واضحًا: شهر العسل بين شركات AI والحكومة انتهى. يتنازل عصر التعاون اللطيف بشأن سياسة AI عن طريق التفاوضات الشاقة حيث يتم قياس الرهانات ليس بأرباح فصلية ولكن بالأسئلة الأساسية حول كيفية تحكيم أقوى تكنولوجيا في التاريخ البشري.

تقوم هذه المقالة على تقرير من Ars Technica. اقرأ المقالة الأصلية.