بيئة تدريب سرية لنماذج الذكاء الاصطناعي
يخطط البنتاغون لإنشاء بيئات آمنة وسرية حيث يمكن لشركات الذكاء الاصطناعي التوليدي — بما في ذلك Anthropic وربما مختبرات ذكاء اصطناعي حدودية أخرى — تدريب نسخ مخصصة من نماذجهم على بيانات عسكرية سرية، كما تعلمت MIT Technology Review. ستمثل المبادرة تصعيداً كبيراً في دمج الذكاء الاصطناعي التجاري في عمليات الأمن القومي، متجاوزة الترتيب الحالي الذي تجيب فيه نماذج الذكاء الاصطناعي على أسئلة حول المواد السرية إلى ترتيب تشكل فيه المواد السرية النماذج نفسها.
حالياً، يتم استخدام نماذج الذكاء الاصطناعي مثل Claude من Anthropic في إعدادات سرية للمساعدة في مهام تشمل تحليل الاستخبارات وحسب التقارير المتعددة، اختيار الأهداف في العمليات الجارية. لكن في هذه النشرات، أنظمة الذكاء الاصطناعي هي نماذج تجارية قياسية تعمل على مدخلات سرية — لم تتم تدريبها على أو مع بيانات سرية. هذا التمييز مهم جداً من وجهة نظر الأمن.
ماذا يعني التدريب على بيانات سرية
سيؤدي تدريب نموذج على بيانات سرية إلى دمج تلك المعلومات في أوزان النموذج — المعاملات الرياضية التي تشفر كل شيء يعرفه النموذج وكيفية استدلاله. بخلاف النموذج الذي يعالج ببساطة المعلومات السرية كسياق لاستعلام محدد، فإن النموذج المدرب على بيانات سرية سيتضمن أنماط الاستخبارات والأطر التحليلية والمعلومات الحساسة المحتملة في بنيته الأساسية.
الآثار الأمنية كبيرة جداً. بمجرد دمج المعلومات السرية في أوزان النموذج، يصبح من الصعب جداً استخراجها. الإجراءات القياسية للتعامل مع المستندات السرية — التحكم في الوصول وسجلات التدقيق وبروتوكولات الحاجة للمعرفة — لا تُترجم بشكل نظيف إلى معاملات نماذج التعلم الآلي. يمثل النموذج المدرب على بيانات سرية نوعاً جديداً من القطع الأثرية الأمنية التي لم تُصمم الأطر الموجودة لتحكمها.
يعترف مسؤولو الدفاع بهذه المخاطر لكنهم يحتجون بأن مزايا القدرة لنماذج الذكاء الاصطناعي الخاصة بالعسكريين — المدربة على فهم المصطلحات الخاصة بالمجال وبروتوكولات الأمان التشغيلي والأطر التحليلية السرية — تبرر الاستثمار في تطوير بنى أمنية مناسبة.
موقف Anthropic المعقد
أصبحت علاقة Anthropic مع وزارة الدفاع متوترة بشكل متزايد. التزمت الشركة علناً بسياسات صارمة حول التطبيقات العسكرية لذكائها الاصطناعي، والتقارير تشير إلى أن المسؤولين الأمريكيين تساءلوا عما إذا كان يمكن الوثوق بـ Anthropic في أنظمة الحرب. سيضع برنامج التدريب السري Anthropic — والشركات الأخرى المشاركة المحتملة في الذكاء الاصطناعي — في موقف غير مسبوق: موظفو الشركة الذين لديهم تصاريح أمنية يعملون داخل بيئات سرية لتدريب نماذج على استخبارات قد لا يُسمح لهم حتى بمناقشتها داخل منظماتهم الخاصة.
مزايا OpenAI والمشهد التنافسي
يبدو أن OpenAI تحركت بسرعة أكبر من المنافسين للامتثال لمتطلبات البنتاغون. يُقال أن تسوية الشركة مع وزارة الدفاع — التي تضمنت تخفيف بعض القيود على الاستخدام العسكري التي كانت مطبقة سابقاً على نماذجها — قد أعطتها موقعاً تفضيلياً للعقود السرية. تعزز صفقة Amazon-OpenAI بقيمة 50 مليار دولار، التي توفر البنية الأساسية الحسابية لنشر ذكاء اصطناعي عسكري متسع النطاق، موقع OpenAI كمورد ذكاء اصطناعي تجاري أساسي لتطبيقات الأمن القومي.
ستحدد مبادرة التدريب السري للبنتاغون، إذا سارت كما هو مخطط، المرحلة التالية من العلاقة بين شركات الذكاء الاصطناعي التجارية والمؤسسة الدفاعية الأمريكية — مع آثار على بحث أمان الذكاء الاصطناعي والديناميكيات التنافسية بين مختبرات الذكاء الاصطناعي وأطر الحوكمة الدولية للذكاء الاصطناعي. الأسئلة التي تثيرها حول دمج أسرار الدول في بنى ذكاء اصطناعي تجاري ليس لها سابقة واضحة في تاريخ قطاع الدفاع أو صناعة التكنولوجيا.
يستند هذا المقال إلى التقارير من MIT Technology Review. اقرأ المقال الأصلي.

