OpenAI تفصل الوصول إلى الدفاع السيبراني عن قواعد سلامة الذكاء الاصطناعي الموجهة للمستهلكين
أطلقت OpenAI نسخة متخصصة من النموذج باسم GPT-5.5-Cyber للباحثين الأمنيين الذين تم التحقق منهم، في تحول لافت في كيفية تعامل شركات الذكاء الاصطناعي الرائدة مع القدرات ذات الاستخدام المزدوج. ووفقًا للتقرير المرفق، يتاح النظام عبر برنامج “Trusted Access for Cyber” وهو مخصص للمدافعين الذين يحمون البنية التحتية الحيوية، وليس لعامة الناس.
تعكس هذه الخطوة توترًا أصبح من الأصعب على مختبرات الذكاء الاصطناعي تجاهله. فالإجراءات الوقائية نفسها التي تمنع طلبات الاختراق الخبيثة تعيق أيضًا العمل الدفاعي المشروع، بما في ذلك إعادة إنتاج الثغرات، والتحقق من التصحيحات، وتحليل البرمجيات الخبيثة. واستجابة OpenAI هي تقسيم الوصول إلى مستويات بدلًا من الإبقاء على موقف أمني واحد شامل.
كيف يعمل نموذج الوصول
يقول التقرير إن OpenAI تستخدم الآن ثلاثة مستويات من الوصول. يحتفظ النموذج العام بالقيود القياسية. ويخفف المستوى المتوسط المرشحات الخاصة بأعمال الأمن الدفاعي. أما GPT-5.5-Cyber، وهو المستوى الأكثر تساهلًا، فيُخصص لاختبارات الاختراق المصرح بها والمهام الأخرى عالية الحساسية المرتبطة بها.
وتقول OpenAI إن النظام لا يزال يمنع أفعالًا مثل سرقة كلمات المرور أو مهاجمة أنظمة تابعة لأطراف ثالثة. لكن الأمثلة الواردة في المصدر توضح أن نسخة Cyber تسمح بمستوى من التفاصيل التشغيلية الذي ترفضه عادة أنظمة الذكاء الاصطناعي السائدة. ففي عرض توضيحي ذُكر هناك، لم يكتفِ النموذج بتوليد شيفرة استغلال لثغرة معروفة، بل نفذ الهجوم أيضًا ضد خادم اختبار، وسيطر على الجهاز، وقرأ معلومات النظام وأعادها.
هذا ليس تعديلًا بسيطًا في السياسة. إنه إقرار رسمي بأن الدفاع السيبراني المتقدم يتطلب على نحو متزايد أنظمة ذكاء اصطناعي قادرة على القيام بأشياء، خارج البيئات الخاضعة للرقابة، تبدو غير قابلة للتمييز عن الأساليب الهجومية.



