من السخرية من اختبارات السلامة إلى إعادة بنائها
غيّرت إدارة ترامب موقفها بشكل حاد من الرقابة على الذكاء الاصطناعي الحدّي، إذ وقّعت اتفاقات جديدة مع Google DeepMind وMicrosoft وxAI لإجراء فحوص سلامة حكومية على النماذج المتقدمة قبل الإطلاق وبعده. ويكمن لافتًا في هذا التحول ليس فقط ما ينطوي عليه، بل أيضًا مدى ابتعاده المباشر عن موقف الإدارة السابق.
وفقًا لـ Ars Technica، كان الرئيس دونالد ترامب قد رفض سابقًا اختبارات السلامة الطوعية للذكاء الاصطناعي المرتبطة بعهد بايدن باعتبارها تجاوزًا تنظيميًا يعيق الابتكار. وبعد فترة وجيزة من توليه المنصب، أعادت الإدارة أيضًا تسمية معهد سلامة الذكاء الاصطناعي الأمريكي إلى مركز معايير وابتكار الذكاء الاصطناعي، أو CAISI، مع إزالة كلمة “سلامة” من الاسم فيما تصفه الجهة المصدر بأنه تلميح لاذع موجّه إلى جو بايدن.
والآن تعيد الإدارة نفسها نسخة من الإطار السياسي الذي كانت قد سخرّت منه.
محفّز Mythos
يبدو أن نقطة التحول كانت قرار Anthropic عدم إصدار أحدث نموذج لها Claude Mythos. وتفيد Ars Technica بأن الشركة رأت أن النموذج شديد الخطورة على النشر، لأن جهات سيئة النية قد تستغل قدراته المتقدمة في الأمن السيبراني. ويبدو أن ذلك القرار كان له أثر قوي داخل واشنطن.
قال مدير المجلس الاقتصادي الوطني في البيت الأبيض، كيفن هاسيت، لمجلة Fortune، وفقًا للنص المصدر، إن ترامب قد يصدر قريبًا أمرًا تنفيذيًا يفرض اختبارات حكومية على أنظمة الذكاء الاصطناعي المتقدمة قبل إطلاقها. وإذا حدث ذلك، فستنتقل الإدارة من تعاون طوعي متجدد إلى نظام رسمي للتقييم قبل الإطلاق.
من الصعب تجاهل المفارقة السياسية هنا. فالبيت الأبيض الذي كان يصوّر الرقابة على السلامة على أنها عائق أمام التقدم، يفكر الآن في فرض إلزامي بعد أن أثار نموذج حدّي مخاوف جدية لدرجة أن مطوّره امتنع عن نشره.
CAISI يدخل في دور أكبر
ذكر إعلان CAISI نفسه صراحة أن الاتفاقات الجديدة “تبني على” سياسة بايدن السابقة. وتكتسب هذه الصياغة أهمية لأنها تقرّ بالاستمرارية حتى بعد فترة من القطيعة الخطابية. ربما غيّرت الإدارة العلامة التجارية، لكن الحاجة التشغيلية إلى تقييم منظم للنماذج تبدو أنها عادت لتفرض نفسها.
قال مدير CAISI، كريس فول، إن التعاونات الموسعة مع القطاع ستساعد المركز على توسيع عمله “للمصلحة العامة في لحظة حرجة”. ويقول النص المصدر إن CAISI أجرى حتى الآن نحو 40 تقييمًا، بما في ذلك اختبارات على نماذج حدّية لم تكن قد أُطلقت بعد.
وتكتسب تلك التقييمات أهمية خاصة لأن CAISI غالبًا ما يحصل على وصول إلى أنظمة مع ضوابط أمان مخففة أو مرفوعة. ووفقًا للوكالة، يتيح ذلك للمقيمين تقييم القدرات والمخاطر المرتبطة بالأمن القومي بصورة أعمق مما يمكنهم فعله عبر النشر العام وحده.
عمليًا، يعني ذلك أن الحكومة لا تراجع منتجات مصقولة بعد الإطلاق فحسب، بل تدرس أيضًا ما يمكن للنماذج فعله عندما تُنزع بعض طبقات الأمان، وهو شكل أكثر تدقيقًا من تقييم القدرات.
الأمن القومي يقود التحول في السياسة
تُصاغ المواقف الجديدة للإدارة بدرجة كبيرة حول الأمن القومي. ويقول CAISI إن فريقًا من الخبراء عبر الوكالات قد شُكّل ليكون فريق عمل يركز على مخاوف الأمن القومي المرتبطة بالذكاء الاصطناعي، بهدف إبقاء المقيمين على توافق مع المخاطر الناشئة عبر الحكومة.
هذه الأولوية مهمة لأنها تفسر إعادة التموضع السياسي. فالنقاشات العامة حول أخلاقيات الذكاء الاصطناعي أو الأضرار التي تطال المستهلكين يمكن أن تقسّم صانعي السياسات على خطوط أيديولوجية مألوفة. أما قضايا الأمن القومي فغالبًا ما تعيد ترتيب هذه الخطوط بسرعة أكبر. فالنموذج الذي يُعتقد أنه قادر على إساءة استخدام سيبراني خطير يسهل تصويره بوصفه تهديدًا استراتيجيًا أكثر من كونه نزاعًا تقليديًا في سياسة التكنولوجيا.
لا يحسم ذلك الجدل الأكبر حول كيفية حوكمة الذكاء الاصطناعي، لكنه يوضح ما الذي يحرك الإدارة حاليًا. فالمسألة ليست في علامة تجارية مجردة اسمها السلامة، بل في احتمال أن تمنح الأنظمة الحدّية أفضلية تشغيلية لجهات معادية قبل أن يفهم المقيمون الحكوميون ملف المخاطر بالكامل.
لماذا يهم هذا التراجع
تكمن أهمية الاتفاقات الجديدة في كل من السياسة والإشارة. فعلى مستوى السياسة، تعيد فتح قناة تُخضع من خلالها الشركات الكبرى أنظمتها الحدّية للتدقيق الحكومي قبل الإطلاق وبعده. وعلى مستوى الإشارة، توضح أن حتى إدارة تعادي خطاب “سلامة الذكاء الاصطناعي” يمكن أن تعود إلى الرقابة المنظمة عندما تتسارع القدرات بما يكفي.
كما أن الشركات المشاركة مهمة. فـ Google DeepMind وMicrosoft وxAI من بين الشركات التي تبني أو تدعم أنظمة متقدمة، ما يمنح هذا الإطار وزنًا عمليًا. وإذا صدر أمر تنفيذي مستقبلي يجعل الاختبار إلزاميًا، فستكون لدى الحكومة بالفعل علاقات نشطة وبعض الخبرة التشغيلية لتبني عليها.
وفي الوقت نفسه، يترك التحول الحالي عدة أسئلة بلا إجابة. يشير النص المصدر إلى أن بعض الشركات وقّعت اتفاقات، لكنه لا يقدم قائمة كاملة أو تفاصيل عن آليات التنفيذ. كما لا يوضح ما العتبات التي ستعرّف النظام “المتقدم” إذا مضى ترامب في أمر تنفيذي يفرض الاختبار.
ومع ذلك، فإن اتجاه التحرك واضح. فالبيت الأبيض الذي حاول التقليل من شأن سلامة الذكاء الاصطناعي عاد إليه بفعل سلوك النماذج الحدّية والتحذيرات الصادرة عن الشركات التي تبنيها.
نقاش سياسة الذكاء الاصطناعي يُعاد تشكيله بفعل القدرة
تذكّرنا هذه الحادثة بأن نقاشات سياسة الذكاء الاصطناعي يمكن أن تتغير بسرعة عندما تتحول المخاوف النظرية إلى مسائل تشغيلية. لم تتجه إدارة ترامب تدريجيًا نحو موقف بايدن بدافع تسوية خطابية، بل يبدو أنها استجابت لحالة محددة خلص فيها مطور كبير إلى أن نموذجًا ما كان شديد الخطورة بحيث لا ينبغي إطلاقه.
وهذا فرق مهم. ففي المشهد المتطور للذكاء الاصطناعي، قد تشكل الصدمات المتعلقة بالقدرة السياسات أسرع مما تفعل الاتساق الأيديولوجي. وإذا مضت الإدارة في الاختبار الإلزامي قبل الإطلاق، فإن واحدة من أقوى التحركات الأمريكية الأخيرة في تقييم الذكاء الاصطناعي الحدّي ستكون قد خرجت من رئيس كان يعتبر هذه الرقابة في البداية غير ضرورية.
- وقّعت إدارة ترامب اتفاقات جديدة طوعية لاختبار سلامة الذكاء الاصطناعي مع Google DeepMind وMicrosoft وxAI.
- تتراجع هذه الخطوة عن رفضها السابق لفحوص السلامة من عهد بايدن.
- يبدو أن قرار Anthropic بعدم إصدار Claude Mythos سرّع هذا التحول.
- قد تتجه البيت الأبيض إلى أمر تنفيذي يفرض اختبار الأنظمة المتقدمة قبل الإطلاق.
هذا المقال يستند إلى تغطية Ars Technica. اقرأ المقال الأصلي.



