للذكاء الاصطناعي الحكومي مجموعة مختلفة من المشكلات

غالبًا ما يفترض سباق نشر الذكاء الاصطناعي ظروف التشغيل الخاصة بالقطاع الخاص: اتصالًا سحابيًا دائمًا، وبنية تحتية مركزية، وحرية واسعة لنقل البيانات، وقدرًا من التسامح مع محدودية شفافية النموذج. ووفقًا لتقرير جديد من MIT Technology Review Insights أُنتج بالشراكة مع Elastic، فإن هذه الافتراضات تنهار سريعًا في البيئات الحكومية.

يؤكد التقرير أن مؤسسات القطاع العام تواجه مزيجًا مميزًا من قيود الأمن والحوكمة والتشغيل، ما يجعل النماذج اللغوية الصغيرة، أو SLMs، خيارًا عمليًا أكثر من مجرد استيراد دليل النماذج الكبيرة التقليدي. الفكرة ليست أن الحكومات غير مهتمة بالذكاء الاصطناعي، بل أن لديها هامشًا أقل للفشل، ومرونة أقل في التعامل مع البيانات، وأسبابًا أكثر للمطالبة بالسيطرة على أماكن تشغيل الأنظمة وسلوكها.

لماذا تزداد جاذبية النماذج الأصغر

أحد أبرز الضغوط هو أمن البيانات. ويستشهد النص الأصلي بدراسة أجرتها Capgemini وجدت أن 79% من مسؤولي القطاع العام عالميًا يبدون حذرًا بشأن أمن بيانات الذكاء الاصطناعي. وهذا القلق ليس مفاجئًا في الوكالات التي تتعامل مع سجلات حساسة، والتزامات قانونية، وأنظمة بالغة الأهمية للمهام. ففي مثل هذه البيئات، قد يكون إرسال المعلومات بحرية عبر الشبكات أو إلى خدمات خارجية أمرًا غير ممكن أو غير مقبول.

ينقل التقرير عن نائب رئيس الذكاء الاصطناعي في Elastic، هان شياو، قوله إن الوكالات الحكومية يجب أن تكون شديدة التقييد بشأن البيانات التي ترسلها إلى الشبكة. هذا القيد يغيّر معادلة النشر. فالأنظمة الكبيرة المعتمدة على السحابة قد تكون قوية، لكن إذا كانت تتطلب افتراضات لا تستطيع المؤسسة قبولها، فإنها تصبح صعبة الثقة من الناحية التشغيلية.

تُطرح النماذج اللغوية الصغيرة بوصفها إجابة لأنها يمكن أن تكون أكثر إحكامًا في السيطرة، وأضيق نطاقًا في الغرض، وربما أسهل في التشغيل داخل البيئات المقيدة. وجاذبيتها ليست في الكفاءة فقط، بل في الملاءمة. فالنموذج الأصغر المصمم حول مهمة حكومية محددة قد يكون أسهل في الحوكمة من نظام عام الغرض صُمم للاستخدام المفتوح.