عنق الزجاجة التالي للذكاء الاصطناعي لم يعد التدريب فقط

استغلت Google وNvidia حدث Google Cloud Next لتسليط الضوء على مشكلة تنتقل بسرعة إلى قلب أعمال الذكاء الاصطناعي: تكلفة الاستدلال. ووفقًا لـ feed المرشح، أوضحت الشركتان خريطة طريق عتادية مصممة لمعالجة تكلفة تشغيل نماذج الذكاء الاصطناعي على نطاق واسع، بما في ذلك مثيلات A5X bare-metal الجديدة.

حتى بصيغة مختصرة، يمثل ذلك تحولًا مهمًا في الأولويات. على مدى السنوات القليلة الماضية، دار جزء كبير من النقاش حول بنية الذكاء الاصطناعي التحتية حول تدريب نماذج أكبر فأكبر. لكن بمجرد انتقال الأنظمة إلى الإنتاج، يصبح الاستدلال المصروف التشغيلي المتكرر. إنه التكلفة التي تُدفع كلما أرسل المستخدم prompt، أو استدعى تطبيق نموذجًا، أو نفّذ agent جولة أخرى من الاستدلال.

لماذا تهم اقتصاديات الاستدلال الآن

الاستدلال هو المكان الذي تصبح فيه منتجات الذكاء الاصطناعي أعمالًا قابلة للحياة أو تبقى عروضًا مكلفة. يمكن للمختبر أن يبرر تكاليف تدريب مرتفعة إذا أصبح النموذج الناتج مهمًا استراتيجيًا. أما عميل السحابة، فيحتاج إلى اقتصاديات يومية تعمل بالفعل. ويمكن لانخفاض تكاليف الخدمة أن يوسع الهوامش، ويدعم منتجات أرخص، أو يتيح أهداف أداء أكثر طموحًا.

لهذا السبب تحمل إعلانات البنية التحتية مثل هذا الإعلان وزنًا استراتيجيًا. فـGoogle وNvidia لا تكتفيان بشحن المزيد من العتاد. إنهما تعالجان قيدًا يؤثر في التبني عبر كامل الطبقة التقنية، من روبوتات الدردشة الاستهلاكية إلى copilots المؤسسية وأنظمة الأتمتة الصناعية.