Google تقسّم استراتيجية TPU بين الاستدلال والتدريب

قدّمت Google تصميمين متخصصين من الجيل الثامن لوحدات TPU، قائلةً إن المرحلة التالية من بنية الذكاء الاصطناعي التحتية ستتشكل بفعل وكلاء مستقلين يفكرون ويخططون وينفذون مهام متعددة الخطوات. وفي منشور على مدونة Google، تقول الشركة إن TPU 8i صُممت خصيصًا لمساعدة وكلاء الذكاء الاصطناعي على إنجاز العمل بسرعة كافية للحفاظ على تجربة مستخدم جيدة، بينما TPU 8t مُحسّنة للتدريب ويمكنها تشغيل نماذج شديدة التعقيد على تجمع ذاكرة هائل واحد.

يكتسب الإعلان أهمية ليس فقط لأن Google تطلق شرائح جديدة، بل لأنها تنظّمها صراحةً حول سردية جديدة لأعباء العمل. لسنوات، انصبّ الحديث عن مسرّعات الذكاء الاصطناعي على التقسيم التقليدي بين التدريب والاستدلال. وتُبقي Google هذا التمييز، لكنها تعيد صياغة جزء من جانب الاستدلال حول الوكلاء بدلًا من خدمة النماذج التقليدية. ويشير هذا الإطار إلى أن الشركة تعتقد أن الطلب المستقبلي سيعتمد بدرجة أقل على تفاعلات السؤال والجواب المعزولة، وبدرجة أكبر على أنظمة تنفذ سلاسل من الإجراءات نيابةً عن المستخدمين.

لماذا وحدتا TPU متخصصتان

يشير وصف Google إلى فرضية بسيطة: إن متطلبات البنية التحتية للذكاء الاصطناعي الوكالي ليست مطابقة لمتطلبات تدريب النماذج الرائدة. يحتاج الوكلاء إلى الاستجابة السريعة. فإذا كان من المفترض أن يستدلوا على المهام، ويستدعوا الأدوات، ويكملوا سير العمل، تصبح الكمون عاملاً حاسمًا في ما إذا كانت التجربة تبدو مفيدة. وهذا هو الدور الذي تقول Google إن TPU 8i تلائمه. فقد صُممت لجعل هذه التفاعلات سريعة بما يكفي لدعم النشر العملي.

أما TPU 8t فتتعامل مع مشكلة مختلفة. فالتدريب على النماذج المتقدمة يتطلب بشكل متزايد ليس فقط قدرة حوسبة خام، بل أيضًا سعة ذاكرة يمكنها استيعاب أنظمة أكبر وأكثر تعقيدًا. وتقول Google إن TPU 8t مضبوطة لهذا الدور ويمكنها تشغيل نماذج شديدة التعقيد على تجمع ذاكرة هائل واحد. وتضع هذه الإشارة الشريحة أداةً للمطورين والمؤسسات التي تحاول توسيع النطاق من دون تجزئة أعباء العمل بشكل مفرط عبر البنية التحتية.

الطبقة الأوسع جزء من الرسالة

تحرص Google أيضًا على وضع الشرائح ضمن روايتها الكاملة عن البنية التحتية المتكاملة. ويربط منشور المدونة وحدات TPU الجديدة بالشبكات ومراكز البيانات والعمليات عالية الكفاءة في استهلاك الطاقة، واصفًا هذا النظام الأوسع بأنه المحرك القادر على إيصال ذكاء اصطناعي وكيل عالي الاستجابة إلى جمهور واسع. وهذا الإطار مهم لأن ساحة المنافسة في بنية الذكاء الاصطناعي لم تعد تقتصر على الشريحة نفسها. بل أصبحت تتعلق بدمج السيليكون والبرمجيات والشبكات وكفاءة الطاقة في منصة يمكن شراؤها ونشرها على نطاق واسع.

وبالنسبة إلى Google، فهذا تفوق استراتيجي سعت طويلًا إلى إبراز أهميته. فالشركة لا تبيع مجرد وصول إلى المسرّعات. إنها تعرض بيئة متكاملة رأسيًا تُقرن فيها الشرائح المخصصة بخدمات السحابة والخبرة التشغيلية الداخلية المستمدة من سنوات من تشغيل أنظمة تعلّم آلي على نطاق واسع.

ما الذي تشير إليه كلمة «agentic» عمليًا

إن استخدام عبارة «عصر الوكلاء» كاشف بحد ذاته. فقد صارت شركات الذكاء الاصطناعي تروّج بشكل متزايد لأنظمة يمكنها فعل أكثر من مجرد توليد النصوص أو الصور عند الطلب. والطموح هو برمجيات يمكنها التخطيط واتخاذ القرار والتنفيذ عبر عدة خطوات، وغالبًا مع إمكانية الوصول إلى الأدوات أو سير العمل المؤسسي. وسواء أكان كل «وكيل» يُسوّق على هذا النحو يفي بهذا الوصف أم لا، فإن مزودي البنية التحتية يرون بوضوح أن هذه الفئة مهمة تجاريًا بما يكفي لتشكيل خرائط طريق العتاد لديهم.

ومن خلال تسمية TPU 8i كشريحة للوكلاء، تراهن Google فعليًا على أن الاستجابة السريعة تحت أعباء العمل المعقدة متعددة المراحل ستصبح مقياسًا حاسمًا للأداء. وقد لا يقل ذلك أهمية عن أرقام الاختبارات القصوى. ففي الاستخدام الفعلي، قد يبدو الوكيل الذي يتصرف ببطء أو يتعثر عبر المهام المتسلسلة معطّلًا حتى لو كان النموذج الأساسي قويًا.

لماذا يهم هذا الإطلاق

يعزز الإعلان مدى السرعة التي تعود بها عتاد الذكاء الاصطناعي إلى التخصص بعد فترة هيمنت فيها الحاجة إلى وحدات GPU العامة على الحديث. ويتجزأ السوق الآن حول احتياجات متميزة: تدريب النماذج العملاقة، وخدمتها بتكلفة منخفضة، والتعامل مع أعباء العمل متعددة الوسائط، وتمكين أنظمة الوكلاء التفاعلية. ويعكس زوج TPU الجديد من Google هذا التشظي.

كما يوضح كيف تطورت رسائل البنية التحتية. فلم تعد إطلاقات الشرائح تُسوَّق فقط على أساس تحسينات السرعة أو مكاسب الإنتاجية. بل باتت مرتبطة برؤى محددة حول كيفية استخدام الذكاء الاصطناعي. وفي هذه الحالة، تريد Google من العملاء أن يتخيلوا عالمًا يعمل فيه الوكلاء نيابةً عن المستخدمين، وأن تكون البنية التحتية في الأسفل مصممة خصيصًا لكل من تدريب تلك الأنظمة وتنفيذها السريع في الوقت الحقيقي.

إذا ثبتت صحة هذه الرؤية، فإن TPU 8i وTPU 8t أقل شبهاً بتحديث جيل روتيني وأكثر شبهاً ببيان معماري حول الاتجاه التالي للطلب على الذكاء الاصطناعي.

هذه المقالة مبنية على تقرير من Google AI Blog. اقرأ المقال الأصلي.

Originally published on blog.google