صناعة تنافسية تجد قاسما مشتركا
يُقال إن OpenAI وAnthropic وGoogle بدأوا العمل معا لمواجهة النسخ غير المصرح به لنماذجهم الذكية، في إشارة إلى أن أحد أشد ضغوط المنافسة في الصناعة يُعامل الآن بوصفه مشكلة أمنية مشتركة. ووفق النص المصدر المقدم، تتبادل الشركات المعلومات عبر Frontier Model Forum، وهو تنظيم أُسس في عام 2023.
القلق المباشر يتعلق بما يُعرف باسم adversarial distillation. في التقطير، تُستخدم مخرجات نموذج أقوى قائم لتدريب نظام مقلد أقل كلفة. ويقول النص المرشح إن هذه الممارسة تطورت من إثبات مبكر للفكرة إلى مشكلة تجارية مهمة لشركات الذكاء الاصطناعي الأمريكية. ويستشهد بـ Bloomberg في القول إن السلطات الأمريكية تقدر أن adversarial distillation يكلف مختبرات الذكاء الاصطناعي في الولايات المتحدة مليارات الدولارات من الإيرادات المفقودة سنويا.
هذه النقلة مهمة لأنها تغير طريقة النظر إلى المنافسة بين النماذج. فبدلا من اعتبار التقليد مجرد واقع سوقي، يبدو أن المختبرات الرائدة تصنف بعض أشكال النسخ كأنماط هجوم ينبغي رصدها وتوثيقها والتخفيف من أثرها بصورة جماعية. ويقارن النص هذا الترتيب بصناعة الأمن السيبراني، حيث تتشارك الشركات بيانات الهجمات بشكل روتيني حتى وهي تتنافس في السوق نفسها.
لماذا أصبح التقطير محوريا في نموذج أعمال الذكاء الاصطناعي
التقطير ليس فكرة تقنية جديدة. ويشير النص المصدر المرشح إلى Stanford’s Alpaca بوصفه أحد العروض المبكرة على إمكانية استخدام مخرجات نموذج متقدم للمساعدة في إنشاء بديل أرخص. الذي تغير هو حجم الحافز الاقتصادي. إذ تتطلب أنظمة الذكاء الاصطناعي الحدودية إنفاقا ضخما على الحوسبة والبحث والمواهب والبنية التحتية. وإذا استطاع المنافسون تقريب الأداء بكلفة منخفضة عبر جمع المخرجات، فإن عائد الاستثمار يتغير جذريا.
لهذا لم يعد الأمر مجرد نقاش أكاديمي. فالمختبرات التي تبني نماذج كبيرة تحاول الدفاع عن التفوق التقني والإيرادات معا. ويقول النص المصدر إن OpenAI حذرت الكونغرس في فبراير من أن Deepseek كان يستخدم أساليب أكثر تطورا لاستخراج البيانات من النماذج الأمريكية. كما يقول إن Anthropic حددت Deepseek وMoonshot وMinimax بوصفها جهات منخرطة في هذه الممارسة.
ما إذا كان هذا التعاون سيفضي إلى إنفاذ أوسع ما يزال غير واضح من المادة المرشحة. لكن التنسيق نفسه لافت. فبالنسبة إلى شركات تتنافس عادة على المعايير والعملاء والموهبة، يشير تبادل المعلومات إلى أنها ترى استخراج النماذج خطرا على مستوى الفئة، لا مجرد إزعاج تنافسي اعتيادي.
طبقة جيوسياسية في الدفاع عن نماذج الذكاء الاصطناعي
يصوغ النص المصدر القلق صراحة حول النسخ من قبل منافسين صينيين، ما يمنح القصة بعدا جيوسياسيا إلى جانب بعدها التجاري. وقد امتدت المنافسة في الذكاء الاصطناعي بين الولايات المتحدة والصين بالفعل عبر الشرائح والبنية التحتية السحابية وضوابط التصدير والوصول إلى أفضل المواهب الهندسية. ويضيف النسخ غير المصرح به للنماذج طبقة أخرى: الحفاظ على قيمة الأنظمة الحدودية بعد نشرها.
هذا مهم لأن النموذج قد يكون محميا أثناء التدريب لكنه يصبح عرضة للخطر بعد أن يبدأ العملاء والمطورون في استدعائه على نطاق واسع. وإذا كانت إجراءات الدفاع ضعيفة، فقد تتحول الواجهة العامة للنموذج إلى قناة لاستخراج ما يكفي من المخرجات لإعادة تكوين أجزاء من سلوكه. وعندها يصبح النشر نفسه حد أمان، لا مجرد محطة منتج.
كما يوحي هذا التعاون المبلغ عنه بتحول أوسع في قطاع الذكاء الاصطناعي. فالمختبرات الحدودية تبدو أكثر فأكثر كجهات تشغيل للبنية التحتية الرقمية الحيوية، لا كباعة برمجيات عاديين. إنها تدير نماذج كبيرة يترتب على إساءة استخدامها أو نسخها أو تدهورها آثار استراتيجية على الأعمال والسياسة والقدرة التنافسية الوطنية.
ما الذي قد يأتي بعد ذلك
لا يصف النص المصدر إجراءات مضادة تقنية محددة، لكن الوقائع تشير إلى أن المختبرات تتحرك نحو رصد واستجابة أكثر تنظيما. وقد يشمل ذلك مراقبة أنماط الاستخدام، أو مقارنة المخرجات المشبوهة، أو تبادل بصمات محاولات الاستخراج المعروفة. ويشير تشبيه الأمن السيبراني في النص المرشح إلى أن تبادل معلومات التهديدات بشكل أكثر منهجية قد يكون في طور الظهور.
بالنسبة إلى صانعي السياسات، تشدد هذه القصة سؤالا صعبا: أين يُرسم الخط الفاصل بين تقييم النماذج المشروع، والضغط التنافسي العادي، والاستخراج غير السليم. أما شركات الذكاء الاصطناعي فالمشكلة لديها أكثر إلحاحا. فإذا كان يفترض أن تصمد اقتصاديات تطوير النماذج الحدودية، فالمختبرات بحاجة إلى وسائل لحماية أنظمتها بعد الإطلاق، لا قبله فقط.
بالنسبة إلى Developments Today، فإن الإشارة الأوسع هي أن المنافسة في الذكاء الاصطناعي أصبحت مؤسسية على مستوى الأمن. ولا تزال OpenAI وAnthropic وGoogle منافسات. لكن في هذه المسألة، يبدو أنها تتفق على أن تكلفة العمل منفردة قد أصبحت مرتفعة للغاية.
- الشركات المذكورة في التعاون المبلغ عنه: OpenAI وAnthropic وGoogle
- المنتدى المذكور في النص المصدر: Frontier Model Forum
- القضية الأساسية: التقطير العدائي لمخرجات النماذج الذكية القائمة
هذه المقالة مبنية على تقرير The Decoder. اقرأ المقال الأصلي.



