استُخدم مسار توزيع للذكاء الاصطناعي كطُعم لبرمجية خبيثة

بحسب التقارير، تظاهر مستودع خبيث مستضاف على Hugging Face بأنه إصدار من OpenAI ووزّع برمجية خبيثة لسرقة المعلومات على أجهزة Windows قبل أن تتم إزالته. والحادثة، كما وردت في تقرير AI News، لافتة ليس فقط بسبب الهجوم نفسه، بل أيضًا لما تكشفه عن الثقة داخل منظومة النماذج المفتوحة سريعة الحركة.

وفقًا للمقتطف المرفق من التقرير، سجّل المستودع نحو 244,000 عملية تنزيل قبل إزالته. وإذا صحّ هذا الرقم، فإن الحجم وحده يجعل الحادثة مهمة. لقد أصبح Hugging Face قناة توزيع معيارية للنماذج، والشفرة، ونقاط التحقق، والأدوات المرتبطة بالذكاء الاصطناعي. هذه المركزية تجعله بنية تحتية قيّمة للمطورين والباحثين، لكنها تجعله أيضًا هدفًا جذابًا للمهاجمين الذين يفهمون مقدار الثقة التي يضعها المستخدمون في الإصدارات التي تبدو مشروعة.

لماذا يهم جانب الانتحال

يُقال إن المستودع قدّم نفسه على أنه إصدار من OpenAI. وتلك التفاصيل بالغة الأهمية لأن هجمات البرمجيات الحديثة غالبًا ما تنجح أقل عبر الاستغلال المتقدم وأكثر عبر اختطاف المصداقية. يكفي اسم علامة تجارية مألوف، ووصف ملف يبدو معقولًا، ومنصة توزيع مرتبطة بعمل مشروع في مجال الذكاء الاصطناعي، لتنجز كثيرًا من مهمة المهاجم مسبقًا.

بعبارة أخرى، لا تصل الحمولة الخبيثة على أنها شيء مثير للريبة بوضوح. إنها تصل ملفوفة داخل افتراضات سير عمل تطوير الذكاء الاصطناعي. وقد يُدفع المستخدمون الذين اعتادوا اختبار النماذج والوكلاء والأدوات بسرعة إلى اختصار خطير: إذا بدا المشروع مناسبًا وشعرت منصة الاستضافة بأنها طبيعية، فإن مستوى التدقيق ينخفض.