سلامة الذكاء الاصطناعي تتحول إلى رأس مال سياسي

إن الدفء الواضح في علاقة Anthropic مع البيت الأبيض يعكس أكثر من مجرد قصة وصول شركة واحدة. وبناءً على ما نشرته AI News، يبدو أن هذا الانفتاح مرتبط بالطريقة التي تقيّم بها واشنطن مطوري الذكاء الاصطناعي الحدّي من خلال عدسة مخاطر النماذج والأمن السيبراني والحوكمة. وفي هذا الإطار، أصبح العمل الذي قامت به Anthropic حول Mythos وProject Glasswing الذي نوقش سابقًا جزءًا من السبب الذي يجعل الشركة تُؤخذ على محمل الجد داخل الحكومة.

المواد المصدرية المتاحة محدودة، لكنها تدعم تطورًا أساسيًا واضحًا. فالقصة التي ركزت مؤخرًا على نموذج اعتُبر خطيرًا جدًا بحيث لا يمكن طرحه علنًا تحولت الآن إلى قصة سياسات. وهذا التحول مهم. فهو يشير إلى أنه في البيئة السياسية الأمريكية الحالية، لا تُحكم الشركات فقط بناءً على أداء النماذج أو جاذبيتها في السوق، بل أيضًا بناءً على كيفية تعاملها مع القدرات التي قد تحمل آثارًا على الأمن القومي أو السلامة العامة.

من قرار مختبري إلى علاقة مع واشنطن

ينص تقرير AI News صراحةً على أن التغطية السابقة لـ Project Glasswing ركزت على “نموذج خطير جدًا بحيث لا يمكن طرحه علنًا” وعلى ما قررته Anthropic بدلًا من ذلك. ثم يذكر أن تلك القصة انتقلت، وأن Mythos هو السبب الذي جعل واشنطن تسمح للشركة بالدخول. وحتى من دون بقية المقال المفقودة، فإن هذه النقاط تدعم تفسيرًا محددًا: لم تعد قرارات الحوكمة الداخلية للنماذج مجرد خيارات منتج، بل يمكنها أيضًا أن تشكل كيفية تقييم صانعي السياسات لما إذا كانت شركة ذكاء اصطناعي تستحق الثقة والوصول.

وسيكون ذلك تطورًا لافتًا في سياسة الذكاء الاصطناعي. فخلال معظم طفرة الذكاء الاصطناعي التوليدي، كان الوصول في واشنطن يتبع غالبًا حجم الشركة أو ظهورها التجاري أو نطاق التبني العام. أما الآن، فيبدو أن استعداد مطور النموذج للحد من الإطلاق، والتأكيد على المخاطر، أو الانخراط مباشرة في الأمن السيبراني أصبح جزءًا من معادلة الوصول أيضًا.