أقوى نقد لعبارة “الذكاء الاصطناعي سيحل المشكلة” ليس معادياً للتكنولوجيا

يُسوَّق الذكاء الاصطناعي بشكل متزايد بوصفه علاجاً لمشكلات التعليم والزراعة والعمالة وتقديم الخدمات العامة. هذا التصور مغرٍ لأنه يحول الإخفاقات الاجتماعية المعقدة إلى تحدٍ هندسي قابل للإدارة. وإذا كانت المؤسسات بطيئة أو ضعيفة التمويل أو مجزأة، فإن وعد النموذج السريع الاستجابة يبدو شبه مقاوم.

لكن مقالة نُشرت في Rest of World تجادل بأن هذا التصور يتجاهل الحقيقة الأساسية للأنظمة الاجتماعية: القدرة التقنية وحدها لا تكفي. حتى أدوات الذكاء الاصطناعي المتقدمة تحتاج إلى دعم بشري وقدرة مؤسسية ومساءلة محلية إذا كان المطلوب منها أكثر من مجرد إنتاج عروض توضيحية مبهرة.

المقال، الذي كتبه الباحثان في كورنيل Deepak Varuvel Dennison وAditya Vashistha، لا ينكر الإمكانات الحقيقية للذكاء الاصطناعي. بل يعترف صراحة بتزايد الأدلة على المكاسب الإنتاجية وجاذبية الذكاء الاصطناعي في القطاعين الخاص والعام. وحجته أضيق لكنها أهم: نشر الذكاء الاصطناعي في المجتمعات المحرومة ليس هو نفسه حل مشكلاتها.

التناقض في قلب الذكاء الاصطناعي من أجل الخير

تسلط المقالة الضوء على توتر بنيوي. غالباً ما يُقدَّم الذكاء الاصطناعي بوصفه أداة لمعالجة عدم المساواة والإقصاء وفجوات الخدمات. لكن هذه الأنظمة نفسها تتشكل بفعل سلاسل توريد استخراجيّة، وتركيز السلطة، واللامساواة القائمة. ومن خلال استدعاء موضوعات مرتبطة بكتب مثل AI Snake Oil وAtlas of AI، يضع المؤلفان الذكاء الاصطناعي لا كطبقة برمجية محايدة، بل كنظام اجتماعي تقني يقوم على الموارد الطبيعية والعمل البشري والمؤسسات الراسخة.

هذا مهم لأن المجتمعات التي تستهدفها مشاريع “الذكاء الاصطناعي من أجل الصالح العام” غالباً هي نفسها الأكثر احتمالاً لتحمل تكاليف التدخلات السيئة التصميم. فالنموذج الذي يبدو فعالاً من بعيد قد يفشل محلياً إذا تجاهل اللغة والثقة وإمكانية الوصول والحوكمة أو الوسطاء البشريين اللازمين للتصرف بناءً على مخرجاته.

إذن، السؤال الجوهري ليس ما إذا كان الذكاء الاصطناعي يمكن أن يساعد، بل ما الشروط التي يجب أن تكون موجودة حتى يساعد بطريقة مستدامة وخاضعة للمساءلة.