يوم محوري لسلامة الذكاء الاصطناعي
في ما يعتبره النقاد نقطة تحول حاسمة لصناعة الذكاء الاصطناعي، أعلنت Anthropic يوم الثلاثاء عن تغييرات جسيمة في سياسة التوسع المسؤول، مزيلة قيود السلامة الصارمة التي كانت محورية لهوية الشركة منذ تأسيسها. كان التوقيت لافتاً — جاء الإعلان في اليوم ذاته الذي ظهرت فيه تقارير حول ضغط وزير الدفاع Pete Hegseth على الشركة لمنح الجيش الأمريكي إمكانية وصول غير محدودة إلى Claude.
لمدة أكثر من سنتين، ظلت سياسة التوسع المسؤول في Anthropic بمثابة أحد أكثر الالتزامات الأمنية ملموسة في صناعة الذكاء الاصطناعي. وضعت السياسة خطوطاً حمراء واضحة: إذا وصلت نماذج الشركة إلى حدود معينة من القدرات دون وجود تدابير سلامة كافية، سيتوقف التطوير. هذا الالتزام اختفى الآن، ليحل محله إطار عمل أكثر مرونة من "تقارير المخاطر" و"خرائط طريق السلامة الحدودية" التي تقول الشركة إنها تعكس بشكل أفضل حقائق المشهد التنافسي للذكاء الاصطناعي.
المنطق خلف التحول
وضعت Anthropic التغييرات كرد فعل عملي على مشكلة عمل جماعي. "بعد سنتين ونصف، تقييمنا الصادق هو أن بعض أجزاء هذه نظرية التغيير قد تطورت كما كنا نأمل، لكن البعض الآخر لم يتطور،" كتبت الشركة في وثيقة سياستها المحدثة. الحجة الأساسية واضحة: إذا توقف مطور واحد مسؤول عن التدريب بينما ينافس المنافسون، قد تكون النتيجة عالماً يتشكله أقل الممثلين حرصاً بدلاً من أكثرهم تفكيراً.
"شعرنا أنه لن يساعد أحداً إذا توقفنا عن تدريب نماذج الذكاء الاصطناعي،" قال Jared Kaplan، رئيس العلماء في Anthropic، لمجلة Time. "لم نشعر حقاً، مع التقدم السريع للذكاء الاصطناعي، أن من المنطقي لنا أن نقدم التزامات أحادية الجانب... إذا كان المنافسون يسيرون قدماً." إنها حجة مألوفة في مجال التكنولوجيا — فكرة أن الممثلين المسؤولين يحتاجون إلى البقاء في الحدود الأمامية لضمان أن وجهات النظر المهتمة بالسلامة تشكل كيفية تطور التكنولوجيا القوية.
لكن المنطق يجلس بشكل غير مريح جنباً إلى جنب مع ثروات الشركة التجارية المتزايدة. جمعت Anthropic 30 مليار دولار في استثمارات جديدة في هذا الشهر فقط، مما رفع تقييمها إلى 380 مليار دولار. جذبت نماذج Claude الإعجاب الواسع، خاصة لتطبيقات البرمجة. وقد وصفت الإصدارات الأحدث من قبل الشركة نفسها بأنها الأكثر أماناً حتى الآن — مما يثير السؤال حول سبب ضرورة إضعاف التزامات السلامة في اللحظة التي تكون فيها القدرات والموارد في ذروتها.
إنذار البنتاغون
الفيل في الغرفة هو حملة الضغط المتزامنة من وزارة الدفاع. وفقاً لتقارير Axios، أعطى وزير الدفاع Hegseth الرئيس التنفيذي لـ Anthropic Dario Amodei حتى يوم الجمعة لتوفير الوصول غير المحدود إلى Claude للجيش أو مواجهة عواقب. قد تشمل تلك العواقب استدعاء قانون الدفاع الإنتاجي، قطع العقود الدفاعية الموجودة للشركة، أو تصنيف Anthropic كمخاطر في سلسلة التوريد — وهي خطوة ستجبر متعاقدي البنتاغون الآخرين على التصديق بأنهم لا يستخدمون Claude في مسارات عملهم.
يُقال إن Claude هو نموذج الذكاء الاصطناعي الوحيد المستخدم حالياً للعمليات العسكرية الأكثر حساسية. "السبب الوحيد الذي نتحدث معهم من أجله هو أننا نحتاجهم ونحتاجهم الآن،" قال مسؤول دفاع لـ Axios. يُقال إن النموذج تم استخدامه خلال العمليات العسكرية الأخيرة في Venezuela، وهو موضوع أثاره Amodei مع شريك الدفاع Palantir.
يُقال إن Anthropic قدمت اقتراحاً لتكييف سياسات الاستخدام الخاصة بها للبنتاغون لكنها رسمت خطوطاً ضد السماح باستخدام النموذج للمراقبة الجماعية للأمريكيين أو أنظمة الأسلحة التي تطلق النار دون تدخل بشري. ما إذا كانت تلك الخطوط ستصمد في مواجهة ضغط حكومي يبقى سؤالاً مفتوحاً.
مخاوف الغليان البطيء
عبّر باحثو السلامة عن مجموعة من ردود الفعل. وصف Chris Painter، مدير منظمة METR غير الربحية، التغييرات بأنها قابلة للفهم لكن محتملة الخطورة. مدح التركيز على الإبلاغ الشفاف عن المخاطر لكنه أثار مخاوف بشأن تأثير "غليان الضفدعة" — الفكرة أنه عندما تصبح خطوط السلامة الصارمة إرشادات مرنة، يبدو أن كل تنازل فردي معقول بينما الاتجاه التراكمي مثير للقلق.
لاحظ Painter أن سياسة التوسع المسؤول الجديدة تشير إلى أن Anthropic "تعتقد أنها تحتاج إلى الانتقال إلى وضع الفرز من حيث خطط السلامة الخاصة بها، لأن الطرق لتقييم ومعالجة المخاطر لا تواكب وتيرة القدرات." أضاف بصراحة: "هذا دليل إضافي على أن المجتمع غير مستعد للمخاطر الكارثية المحتملة التي يشكلها الذكاء الاصطناعي."
التوازي مع تطور Google صعب التجاهل. اشتهرت محرك البحث العملاق بالعمل تحت شعار "لا تكن شريراً" قبل أن تزيله بهدوء من قواعس السلوك الخاصة بها حيث زاد الضغط التجاري. ما إذا كانت مسيرة Anthropic تتبع قوساً مماثلاً سيعتمد على ما تفعله الشركة في الأسابيع والأشهر القادمة — خاصة في طريقة عملها مع البنتاغون.
ما يأتي بعد ذلك
يحل إطار عمل سياسة التوسع المسؤول الجديد محل قرارات القطع/الذهاب الثنائية بتقييمات متدرجة وإفصاحات علنية. من الناحية النظرية، يوفر هذا حكماً أماناً أكثر دقة. في الواقع العملي، يقلق النقاد من أنه يزيل الآلية الوحيدة التي كانت يمكن أن تفرض توقفاً في التطوير في لحظة حاسمة.
بالنسبة لصناعة الذكاء الاصطناعي الأوسع، الرسالة واضحة: حتى الشركات الأكثر التزاماً بصوت عالٍ بالسلامة تجد صعوبة في الحفاظ على هذا الالتزام مع ارتفاع التقييمات وتكثيف المنافسة والحكومة تطرق الباب. السؤال ليس ما إذا كان تطوير الذكاء الاصطناعي سيبطأ — فمن الواضح أنه لن يحدث. إنه ما إذا كانت الحراس التي يتم إعادة بناؤها قوية بما يكفي لتهم.
تم استناد هذا المقال إلى تقارير من Engadget. اقرأ المقالة الأصلية.


