يدخل الذكاء الاصطناعي المتقدم عصرًا أكثر تشددًا في الحوكمة

الجدل الأخير حول نموذج Mythos Preview من Anthropic يدور ظاهريًا حول الأمن السيبراني، لكنه يشير أيضًا إلى حقيقة أوسع في الذكاء الاصطناعي: فالشركات الرائدة أصبحت أكثر استعدادًا لتقييد الوصول إلى الأنظمة المتقدمة عندما تعتقد أن القدرات والمخاطر ترتفعان معًا.

وفقًا للمادة المصدر المقدمة، فإن Anthropic تحد من Mythos Preview إلى بضع عشرات من المؤسسات، بما في ذلك Microsoft وApple وGoogle وLinux Foundation، وذلك في إطار مجموعة تُدعى Project Glasswing. وتقول الشركة إن النموذج يمثل تهديدًا بالغ الخطورة بسبب قدرته على اكتشاف الثغرات والمساعدة في توليد سلاسل الاستغلال. سواء صح كل جزء من هذا الادعاء أم لا، فإن استراتيجية الإطلاق نفسها مهمة.

وهي تشير إلى أن المرحلة التالية من المنافسة في الذكاء الاصطناعي قد لا تعود تُعرَّف فقط عبر مؤشرات الأداء الأكبر والوصول الأوسع. إن اختيارات الحوكمة، وبخاصة من يحصل على الوصول، وتحت أي قيود، وبأي مستوى من الإشراف، أصبحت جزءًا من المنتج.

الوصول المقيّد لم يعد استثناءً

طوال معظم طفرة الذكاء الاصطناعي التوليدي، كانت النزعة السائدة هي التوسع. فقد سارعت الشركات إلى وضع النماذج أمام مزيد من المستخدمين والمطورين والعملاء من المؤسسات. كانت توجد تدابير أمان، لكن النشر الواسع ظل المسار الافتراضي. وتشير حالة Mythos إلى أن نهجًا أكثر انتقائية أصبح طبيعيًا عندما يعتقد مزودو الخدمة أن احتمال إساءة استخدام النظام مرتفع على نحو غير معتاد.

ولذلك عدة تبعات. أولًا، يخلق فصلًا أوضح بين القدرة المتقدمة والوصول العام. ثانيًا، يمنح الشركاء المؤسسيين الكبار دورًا مميزًا في تقييم الأنظمة المتقدمة وتشكيل مراحلها الأولى. ثالثًا، يعيد تأطير إطلاق النموذج بوصفه حدثًا للحوكمة لا مجرد محطة تقنية.

وهذا مهم لأنه ينقل أسئلة سياسة الذكاء الاصطناعي أقرب إلى القلب التجاري للصناعة. فقيود الوصول ليست نقاشًا أخلاقيًا مجردًا عندما تؤثر في أي الشركات يمكنها اختبار النظام أو دمجه أو الاستفادة منه قبل غيرها.

لماذا يهم هذا ما وراء Anthropic

حتى لو اتضح أن Mythos نفسه كان مبالغًا في أمره إلى حد ما، فمن المرجح أن النمط الذي يمثله سيستمر. فمطورو النماذج يواجهون ضغوطًا متزامنة من الحكومات والمشترين من المؤسسات والباحثين في الأمن وفرق المخاطر الداخلية. وفي هذا السياق، قد يبدو الإطلاق المرحلي المسار الأقل خطورة: إظهار المسؤولية، واحتواء سوء الاستخدام، وجمع الملاحظات، والحفاظ على المرونة.

وتُظهر المادة المصدر أيضًا لماذا يجذب هذا النهج المختبرات الكبرى. فإذا كان يُعتقد أن نموذجًا ما يحسن بصورة ملموسة القدرات الهجومية في مجال الأمن السيبراني، فإن حصره في اتحاد يضم كبار ملاك المنصات وقيّمي البنية التحتية يمكن تقديمه باعتباره وصاية مسؤولة لا حصرية تجارية. وقد يظل القرار عرضة للنقد، لكنه أسهل دفاعًا من طرح عام بلا حدود.

ولا تقتصر هذه المنطقية على نماذج الأمن السيبراني. إذ يمكن توسيعها إلى الأنظمة ذات الآثار على الأمن الحيوي أو الاحتيال أو المراقبة أو الوكلاء المستقلين. وفي كل حالة، يصبح التحكم في الوصول واحدًا من أولى أدوات الحوكمة التي يجري تطبيقها.

تحدي الحوكمة المقبل

يخلق هذا مجموعة جديدة من الأسئلة لقطاع الذكاء الاصطناعي. من يقرر متى يصبح النموذج شديد الخطورة بحيث لا يصلح للإطلاق العادي؟ وما الأدلة التي ينبغي أن تقدمها الشركات عندما تطرح هذا الادعاء؟ وكم ينبغي أن تكون برامج التقييم المقيدة شفافة؟ وما الذي يمنع أن تتحول مبررات السلامة أيضًا إلى خندق تنافسي؟

المادة المصدر المقدمة لا تجيب عن هذه الأسئلة، لكنها تجعل من الأصعب تجاهلها. وتُظهر استراتيجية إطلاق Anthropic عالمًا لم تعد فيه المختبرات تتعامل مع الحوكمة بوصفها شيئًا يبدأ بعد الإطلاق. فهي تبدأ الآن قبل الإطلاق، في صورة وصول مضبوط واختيار للشركاء وتبرير علني.

ومن المرجح أن يتسارع ذلك كلما أصبحت النماذج المتقدمة أكثر وكيلية وأكثر قدرة على تنفيذ مهام متعددة الخطوات بإشراف محدود. فعندما تستطيع الأنظمة فعل أكثر من مجرد توليد نصوص أو مقاطع برمجية، تصبح عواقب من يستخدمها أولًا أكبر بكثير.

إشارة إلى أين يتجه الذكاء الاصطناعي

قد لا يكون أهم درس من واقعة Mythos هو ما إذا كان نموذج واحد خطيرًا كما يُقال. بل قد يكون أن الصناعة تستقر على قاعدة تشغيلية جديدة: فالنماذج القوية ستصل على نحو متزايد خلف طبقات من الحوكمة، وإطلاق محدود، وتمحيص مؤسسي.

هذا لا يلغي المخاطر، ولا يحل التوتر بين الانفتاح والسيطرة. لكنه يُظهر أن شركات الذكاء الاصطناعي المتقدمة تعدّل استراتيجية نشرها لتناسب عالمًا لا يمكن فيه فصل القفزات في القدرات عن مخاوف سوء الاستخدام بصورة واضحة.

وبالنسبة إلى واضعي السياسات والمؤسسات، يعني ذلك أن الوصول نفسه أصبح قضية حوكمة. وبالنسبة إلى المطورين والجمهور، فهذا يعني أن مستقبل الذكاء الاصطناعي قد يتشكل بقدر ما يتشكل ببنية الإطلاق وبأداء النموذج الخام.

لذلك فإن قرار Anthropic أكبر من مجرد جدل سيبراني واحد. إنه لمحة مبكرة عن عصر ذكاء اصطناعي أكثر تشددًا، عصر لم يعد فيه السؤال يدور فقط حول ما الذي يستطيع النموذج فعله، بل حول من يُسمح له بأن يكتشف ذلك أولًا.

هذه المقالة مبنية على تقرير AI News. اقرأ المقال الأصلي.