السنة التي التقت فيها فقاعة الذكاء الاصطناعي بالواقع

في غضون سنوات قليلة، تحول الذكاء الاصطناعي من حقل بحث متخصص إلى التكنولوجيا الأكثر ضجة في التاريخ الحديث. تريليونات الدولارات في القيمة السوقية، مليارات في تمويل المشاريع، وسيل من التنبؤات المتحمسة حول الذكاء العام الاصطناعي اجتمعت لإنشاء جو من الحماس غير العقلاني يضاهي عصر النقاط.كوم. ثم جاء 2025، وحان دفع الثمن.

قامت MIT Technology Review بتجميع تقييمها الشامل لما حدث خطأ في كتاب إلكتروني جديد، وتوثيق الانقطاع بين ما وعدت به شركات الذكاء الاصطناعي وما سلمته فعلاً. تجادل سلسلة "تصحيح الضجة" للمنشور بأن الصناعة دخلت مرحلة ضرورية بعد الضجة، وهي مرحلة تتطلب تقييماً صادقاً لقدرات التكنولوجيا الحقيقية وقيودها الحقيقية بنفس القدر.

يأتي الكتاب الإلكتروني في وقت تواجه فيه صناعة الذكاء الاصطناعي أزمة هوية. التكنولوجيا الثورية التي كان من المفترض أن تحول كل صناعة، وتقضي على ملايين الوظائف، وربما تحقق ذكاءً خارقاً، أنتجت بدلاً من ذلك واقعاً أكثر تواضعاً للأدوات المفيدة لكن المحدودة التي تعمل بشكل أفضل عند دمجها بعناية في سير العمل الإنساني الموجود.

معدل الفشل 95 بالمئة

ربما تأتي الإحصائية الأكثر إدانة في التسوية من تقرير MIT الخاص بـ "GenAI Divide", الذي نُشر في يوليو 2025. وجدت الدراسة أن خمسة وتسعين بالمئة من نشرات الذكاء الاصطناعي في المؤسسات لم توفر أي قيمة تجارية قابلة للقياس. هذا ليس رقماً من المتشككين أو النقاد. ظهر من التحليل الدقيق للتطبيقات الشركات الفعلية عبر صناعات متعددة.

يتطلب معدل الفشل السياق. خلال 2023 و2024، أسرعت الشركات في كل قطاع لاعتماد الذكاء الاصطناعي التوليدي، غالباً تحت ضغط من المجالس والمستثمرين والسرديات الإعلامية التي عاملت تنفيذ الذكاء الاصطناعي على أنه وجودي. واجه الرؤساء التنفيذيون الرئيسيون الذين لم يتمكنوا من التعبير عن استراتيجية الذكاء الاصطناعي أسئلة حادة من المساهمين. كانت النتيجة موجة من النشرات المتسرعة والسيئة التخطيط مدفوعة أكثر بالخوف من فقدان الفرص بدلاً من الحاجة التجارية الحقيقية.

اتبعت العديد من هذه التطبيقات نمطاً متوقعاً. ستقوم شركة بترخيص نموذج لغة كبير، وتبني نموذج أولي لـ chatbot أو أداة تلخيص المستندات، وتعرضها على المديرين التنفيذيين في بيئة يتحكم بها، ثم اكتشفت أن الأداء تدهور بشكل دراماتيكي عند النشر للمستخدمين الحقيقيين الذين يتعاملون مع المهام الفعلية بيانات حقيقية. اتضح أن الفجوة بين العرض التوضيحي والإنتاج أوسع بكثير مما اقترحه البائعون.

الوكلاء المستقلون: الوعد الذي انهار

لم يشهد أي قطاع من صناعة الذكاء الاصطناعي تصحيح ضجة أكثر دراماتيكية من الوكلاء المستقلون. طوال 2024 والنصف الأول من 2025، روجت شركات الذكاء الاصطناعي الرائدة رؤية لوكلاء البرامج التي يمكن أن تكمل بشكل مستقل مهام معقدة في مكان العمل، من حجز السفر إلى كتابة التقارير إلى إدارة المشاريع، مع الحد الأدنى من الإشراف البشري.

اختبر الباحثون في Upwork هذا الاقتراح بشكل منهجي، ونشروا وكلاء مدعوم نماذج لغة كبيرة رائدة من OpenAI و Google DeepMind و Anthropic على مجموعة من مهام مكان العمل القياسية. كانت النتائج محبطة. فشل هؤلاء الوكلاء في إكمال العديد من المهام المباشرة بمفردهم. حققت نماذج مثل GPT-5 و Gemini معدلات إنجاز بحوالي عشرين بالمئة فقط على المهام التي تتطلب أكثر من مجرد استرجاع المعلومات البسيط.

أثبتت المهام التي تتطلب دقة ثقافية أنها مشكلة خاصة. فشلت كتابة نسخ التسويق وترجمة اللغة وتصميم تخطيط الموقع وأي عمل يتطلب فهماً للجمهور أو السياق أو الحكم الجمالي تماماً. كان بإمكان الوكلاء توليد نصوص تشبه سطحياً العمل الكفء لكنها انهارت تحت التدقيق، مما أسفر عن نتائج عامة أو غير حساسة ثقافياً أو غير موثوقة من الناحية الواقعية.

مفارقة الترميز

كان أحد أكثر الاكتشافات المثيرة للدهشة في تصحيح الضجة يتعلق بمساعدات ترميز الذكاء الاصطناعي، التي كانت من بين التطبيقات الأكثر احتفاءً واعتماداً على نطاق واسع لنماذج اللغة الكبيرة. تقاربت دراسات متعددة صدرت في 2025 على استنتاج غير متوقع: المطورون الذين يستخدمون مساعدات ترميز الذكاء الاصطناعي أكملوا المهام بنسبة تسعة عشر بالمئة أبطأ من أولئك الذين عملوا بدونها.

يبدو أن التفسير يتضمن التكاليف المخفية للترميز بمساعدة الذكاء الاصطناعي. بينما سرعت الأدوات توليد الكود الأولي، قضى المطورون وقتاً إضافياً كبيراً في مراجعة واختبار وتصحيح مخرجات الذكاء الاصطناعي. كثيراً ما قدمت النماذج أخطاء دقيقة أو استخدمت APIs منتهية الصلاحية أو أنتجت رمزاً يجمع تقنياً لكنه ينتهك الاتفاقيات المعمارية أو أفضل الممارسات الأمنية. تم استهلاك الوقت الموفر في الكتابة أكثر من خلال الوقت المقضي في التحقق والإصلاح.

تناقضت هذه النتيجة بشكل مباشر مع مطالبات شركات الذكاء الاصطناعي، التي توقعت مكاسب إنتاجية ضخمة من مساعدات الترميز. أظهرت عدة دراسات بارزة كلفتها شركات الذكاء الاصطناعي نفسها توفيراً في الوقت دراماتيكياً، لكن هذه تم إجراؤها عادة في بيئات مراقبة مع مهام بسيطة وواضحة المعالم بدلاً من العمل الفوضوي والغامض الذي يميز تطوير البرامج الحقيقي.

سراب AGI

كان الكثير من ضجة الذكاء الاصطناعي يكمن وراء الوعد أو التهديد بالذكاء العام الاصطناعي، وهو نظام افتراضي قادر على مطابقة أو تجاوز القدرات المعرفية البشرية في جميع المجالات. طوال 2023 و2024، قام قادة شركات الذكاء الاصطناعي الرائدة بتنمية التوقعات بنشاط بأن AGI كانت وشيكة أو شبه وشيكة، مع جداول زمنية تتراوح من سنتين إلى خمس سنوات.

بحلول نهاية 2025، انهارت هذه السردية إلى حد كبير. بدأ باحثو الذكاء الاصطناعي البارزون بالإعلان علناً بأن عصر الاختراقات الثورية قد انتهى وأن نماذج اللغة الكبيرة، التكنولوجيا التي تحرك الجيل الحالي من أنظمة الذكاء الاصطناعي، ليست طريقاً نحو AGI. أظهرت قوانين التوسع التي تدفع التحسينات السريعة في أداء النموذج علامات على ضرب جدار التوسع المعرفي، حيث يؤدي جعل النماذج أكبر وتدريبها على بيانات أكثر إلى تناقص العائدات.

يتم فهم الأسباب التقنية بشكل متزايد. نماذج اللغة الكبيرة هي أنظمة تطابق متطورة مدربة على نصوص يتم إنشاؤها بواسطة الإنسان. يمكنهم إعادة تجميع واستقراء الأنماط بطرق مثيرة للإعجاب، لكنهم يفتقرون إلى المنطق السببي ونماذج العالم والفهم الحقيقي الذي سيوصف بالذكاء العام الحقيقي. تبقى الفجوة بين إنتاج نصوص سلسة وفهم ما يعنيه هذا النص واسعة كما هي دائماً، بغض النظر عن حجم النموذج.

التكلفة الإنسانية للضجة

لم يكن تصحيح ضجة الذكاء الاصطناعي مسألة مجردة بحتة لتقييم التكنولوجيا. تترتب على ذلك عواقب حقيقية من التوقعات المتضخمة. واجهت الشركات التي اتخذت التزامات مبكرة جداً للأتمتة التي يدعمها الذكاء الاصطناعي انعكاسات مكلفة. عاش العمال الذين تم إخبارهم بأن وظائفهم سيتم القضاء عليها من خلال الذكاء الاصطناعي قلقاً طويلاً فقط للعثور على أدوارهم تقريباً دون تغيير. يتساءل الطلاب الذين أعادوا هيكلة تعليماتهم حول مهارات المجاورة الذكاء الاصطناعي الآن عما إذا كان سوق العمل الموعود سيتجسد.

ربما الأهم من ذلك، كانت الموارد الموجهة للذكاء الاصطناعي خلال دورة الضجة بمثابة تكاليف الفرصة البديلة. رأس المال والمواهب الهندسية والاهتمام التنظيمي الموجهة نحو مشاريع الذكاء الاصطناعي ذات العائد الأدنى كان يمكن استثمارها في تكنولوجيات أخرى أو في معالجة التحديات الملحة غير التكنولوجية.

ما ينجو من التصحيح

لا يعني تصحيح الضجة أن الذكاء الاصطناعي عديم الفائدة. على العكس من ذلك، من خلال تجريد التوقعات غير الواقعية، فإنه يوضح حيث تتفوق التكنولوجيا حقاً. تعتبر أدوات الذكاء الاصطناعي فعالة للمهام المحددة والمعرفة جيداً: تلخيص المستندات، وترجمة اللغات مع المراجعة البشرية، وتسريع البحث عبر مجموعات البيانات الكبيرة، وإنشاء مسودات أولى يقوم الإنسان بتكريرها، وتحديد الأنماط في البيانات المنظمة.

الخيط المشترك بين التطبيقات الناجحة هو الإشراف البشري. يعمل الذكاء الاصطناعي بشكل أفضل ليس كوكيل مستقل بل كأداة تزيد من الحكم البشري، وتتعامل مع الروتين والتكراري بينما يوفر الإنسان السياق والإبداع والتفكير الناقد الذي تفتقده التكنولوجيا. هذه رؤية أقل دراماتيكية من AGI، لكنها واقعية، وتصف سوقاً بمئات مليارات الدولارات.

يجادل الكتاب الإلكتروني MIT Technology Review بأن مرحلة ما بعد الضجة، على الرغم من أنها مؤلمة لأولئك الذين راهنوا بكثافة على التوقعات الأكثر طموحاً، فهي في النهاية صحية للتطور طويل الأجل للتكنولوجيا. تؤدي التوقعات الواقعية إلى تنفيذات أفضل، والتي تؤدي إلى قيمة حقيقية، والتي تدعم الاستثمار اللازم للبحث المستمر. قد يتم تذكر تصحيح الضجة الكبرى للذكاء الاصطناعي في 2025 في النهاية ليس كفشل للتكنولوجيا بل كنضوج ضروري للصناعة التي تبنيها.

يستند هذا المقال إلى تقارير MIT Technology Review. اقرأ المقال الأصلي.