وصول وكالة الأمن القومي يثير أسئلة سياسية
تستخدم وكالة الأمن القومي الأمريكية على ما يبدو أقوى نماذج Anthropic للذكاء الاصطناعي، وهو Mythos Preview، وفقًا لملخص The Decoder لتقرير Axios الذي يستند إلى مصدرين.
وتكتسب هذه الخطوة المبلّغ عنها أهمية لأن وكالة الأمن القومي تقع تحت سلطة البنتاغون، بينما صنفت وزارة الدفاع شركة Anthropic بشكل منفصل كخطر أمني وحاولت منذ فبراير منعها كمورّد.
تعكس هذه الحالة توترًا متزايدًا في تبني الحكومة للذكاء الاصطناعي: فالوكاﻻت تريد الوصول إلى نماذج متقدمة، لكن هذه الأنظمة نفسها قد تثير مخاوف تتعلق بالأمن والمشتريات والمراقبة وسياسات الأسلحة.
نموذج مقيد
قيدت Anthropic الوصول إلى Mythos لما يقرب من 40 جهة ضمن جهد يُسمى Project Glasswing. وقد جادلت الشركة بأن القدرات الهجومية السيبرانية للنموذج خطيرة للغاية بحيث لا تصلح للإتاحة الواسعة.
هذا التقييد يضع Mythos في فئة مختلفة عن روبوتات الدردشة التجارية العامة. فهو يُعامل كقدرة حساسة، لا كأداة إنتاجية أخرى فحسب.
ويذكر The Decoder أن الرئيس التنفيذي لـAnthropic، داريو أمودي، التقى الأسبوع الماضي مسؤولين في البيت الأبيض لبحث نشر Mythos عبر الوكالات الحكومية. كما يُقال إن أجهزة الاستخبارات البريطانية لديها أيضًا وصول إلى النموذج عبر معهد أمن الذكاء الاصطناعي في البلاد.
نزاع حول الاستخدام المقبول
طالب البنتاغون Anthropic بإتاحة Claude لجميع الاستخدامات القانونية. ورفضت Anthropic ذلك، واضعة حدودًا تتعلق بالمراقبة الجماعية والأسلحة الذاتية التشغيل.
يمس هذا الخلاف جوهر النقاش الناشئ حول مشتريات الذكاء الاصطناعي. فقد يرغب مزود النموذج في تحديد الخطوط الحمراء لكيفية استخدام أنظمته، بينما قد يجادل المشترون الحكوميون بأن السلطة القانونية هي التي يجب أن تحدد الاستخدامات المسموح بها.
بالنسبة لوكالات الاستخبارات والدفاع، قد تكون نماذج الذكاء الاصطناعي المتقدمة مفيدة في التحليل السيبراني، ومعالجة اللغة، وفرز المعلومات، وأعمال تحليلية أخرى كثيفة الحجم. لكن القدرات نفسها قد تثير مخاوف عندما تُستخدم في المراقبة أو العمليات السيبرانية الهجومية أو الأنظمة التي تعمل مع تحكم بشري أقل.
لماذا يهم ذلك
يشير الاستخدام المبلّغ عنه لـMythos من قبل وكالة الأمن القومي إلى أن أنظمة الذكاء الاصطناعي القوية تدخل بيئات حكومية حساسة حتى قبل تشكّل معايير سياسية مستقرة حول قيود الموردين والاستثناءات المرتبطة بالأمن القومي وحدود الاستخدام المقبول.
ويُظهر هذا النزاع أيضًا أن التزامات سلامة الذكاء الاصطناعي لم تعد مجرد مسألة تصميم منتج. بل أصبحت شروطًا في المشتريات، ونزاعات قانونية، وأسئلة أمن قومي.
إذا تبنت الوكالات نماذج ذكاء اصطناعي مقيدة بينما تعترض أجزاء أخرى من الحكومة على دور المورد، فقد تكون النتيجة نهجًا مجزأً: جهة تتعامل مع نموذج باعتباره ضروريًا استراتيجيًا، وأخرى تتعامل مع الشركة باعتبارها مصدر قلق أمني.
من المرجح أن يُتابع ملف Mythos عن كثب لأنه يجمع في الوقت نفسه عدة أسئلة حاسمة في حوكمة الذكاء الاصطناعي: من يحصل على وصول إلى النماذج المتقدمة، وكيف تُضبط الأنظمة القادرة سيبرانيًا، وما إذا كانت شركة ذكاء اصطناعي خاصة تستطيع رفض بعض الاستخدامات الحكومية مع الاستمرار في خدمة عملاء القطاع العام.
تعتمد هذه المقالة على تقرير The Decoder. اقرأ المقال الأصلي.
Originally published on the-decoder.com



