Google تستهدف نقطة ضعف أساسية في مساعدين البرمجة
قدّمت Google ما تسميه «Agent Skill» لـ Gemini API، وهو موجه إلى مشكلة تؤثر في כמעט كل مساعد برمجة مبني على نماذج اللغة الكبيرة: قد تكون لدى النموذج قدرة جيدة، لكن معرفته الداخلية بالأدوات وSDK وأفضل الممارسات قد تتأخر عن الواقع.
النهج الذي تتبعه الشركة بسيط من حيث المبدأ. فبدلًا من افتراض أن بيانات تدريب النموذج تحتوي على أحدث تغييرات المنتج، يزوّد هذا skill الوكيل بمعلومات حالية عن النماذج المتاحة، وحِزم تطوير البرمجيات، وأمثلة الشيفرة. وهذا يمنح النظام طبقة مرجعية حية للمهام التي غالبًا ما يسبب فيها اختلاف الإصدارات وأنماط الاستخدام القديمة فشلًا.
هذا مهم لأن كثيرًا من أخطاء البرمجة العملية ليست في الحقيقة أخطاء استدلال، بل أخطاء توثيق. قد يفهم النموذج مفاهيم البرمجة جيدًا، لكنه لا يزال ينتج شيفرة غير قابلة للاستخدام إذا استدعى دالة خاطئة، أو أشار إلى واجهة حزمة قديمة، أو اعتمد على أمثلة لم تعد موصى بها.
القفزة في المعيار كبيرة
وفقًا لنتائج الاختبار المعلنة، كان التأثير كبيرًا في معيار يضم 117 مهمة برمجة. تحسّن أفضل نموذج لدى Google في المقارنة، Gemini 3.1 Pro Preview، من معدل نجاح 28.2 في المئة من دون skill إلى 96.6 في المئة معه.
هذه الأرقام، إذا امتد أثرها إلى ما هو أبعد من المعيار، لافتة ليس لأنها توحي بأن ذكاء النموذج الخام قد تغيّر فجأة، بل لأنها تُظهر مدى اعتماد الأداء على الوصول إلى إرشادات حديثة ومنظمة. يعمل هذا skill فعليًا على تقليص الفجوة بين ما يستطيع النموذج استنتاجه وما يعرفه بالفعل عن سلسلة الأدوات التي يُفترض أن يستخدمها.
كما أفادت Google بأن نماذج Gemini 2.5 الأقدم حققت مكاسب أصغر بكثير. والتفسير الذي قُدِّم هو أن النماذج الأحدث تمتلك قدرات استدلال أقوى ويمكنها الاستفادة بشكل أفضل من المعلومات المُدخلة. وبهذا المعنى، لا يستبدل skill الاستدلال، بل يعززه عبر توفير سياق ملائم يمكن للنموذج استخدامه بفاعلية.
هذا التمييز مهم للمطورين الذين يقيمون أنظمة الذكاء الاصطناعي. فبيانات الأساس الأفضل لا تفيد كثيرًا إذا لم يستطع النموذج تفسيرها. لكن النماذج الأقوى قد تؤدي بشكل سيئ جدًا إذا أُجبرت على العمل بمعرفة قديمة. وتوحي نتائج Google بأن أكبر المكاسب قد تأتي من الجمع بين نماذج عالية القدرة ومواد مرجعية حديثة ومحددة النطاق.
تحول أوسع في كيفية بناء أنظمة البرمجة بالذكاء الاصطناعي
يعكس هذا الإعلان أيضًا اتجاهًا أوسع في أدوات الذكاء الاصطناعي. فبدلًا من التعامل مع أوزان النموذج باعتبارها المصدر الوحيد للحقيقة، يضيف المطورون بشكل متزايد تعليمات خارجية أو skills أو مستودعات أو خدمات بروتوكول فوق النماذج العامة. وقد ساعد إطار skills من Anthropic في نشر هذا النمط، وتطبّق Google نسختها منه مباشرة على أحد أهم الاستخدامات تجاريًا: توليد الشيفرة.
عمليًا، يعني ذلك الابتعاد عن فكرة أن نموذجًا ضخمًا واحدًا مدربًا مسبقًا يجب أن يعرف بالفعل كل ما يلزم لحل مهام البرمجيات الحديثة. هذا التوقع كان دائمًا غير واقعي للمنصات سريعة التغير. فواجهات API تتغير كثيرًا، وSDK تتطور بسرعة كبيرة، والأنماط الرسمية تُراجع باستمرار. وكلما كانت البيئة أكثر ديناميكية، أصبح النهج المعتمد على التدريب وحده أكثر هشاشة.
يبدو أن Google تعترف بهذا الهشاشة وتعالجها على مستوى النظام. يظل النموذج هو محرك الاستدلال، لكن skill يصبح الوسيلة لتحديث معرفته العملية في وقت الاستدلال.
ويشير التقرير أيضًا إلى أن دراسة من Vercel اقترحت أن ملفات التعليمات المباشرة مثل
AGENTS.md
قد تكون أكثر فعالية في بعض الحالات، وأن Google تستكشف خيارات أخرى تشمل خدمات MCP. وهذا يشير إلى أن الشركة لا ترى skill الحالي باعتباره الجواب النهائي. بل يبدو أنه مجرد تطبيق واحد لمبدأ تصميم أوسع: تعمل وكلاء البرمجة بشكل أفضل عندما تكون متصلة بمعرفة خارجية مُدارة وذات صلة بالمهمة.لماذا ينبغي على المطورين الانتباه
بالنسبة لفرق البرمجيات العاملة، فالدلالة عملية. قد تعتمد جودة مساعد البرمجة بالذكاء الاصطناعي أقل على علامة النموذج وحدها وأكثر على ما إذا كان النظام يملك وصولًا إلى السياق المحلي الصحيح، وأحدث التوثيق، وأمثلة تعكس أفضل الممارسات الحالية. قد يصبح نموذج يبدو متوسطًا عند عزله فعالًا جدًا عند تزويده بسياق مضبوط جيدًا. وقد يفشل نموذج يبدو قويًا في معيار اختبار إذا تُرك ليختلق واجهات قديمة.
ويترتب على ذلك آثار في تصميم المنتج. يمكن للبائعين الاستمرار في السعي وراء نماذج أكبر فأكبر، لكن ربما يحققون مكاسب أسرع من خلال تحسين الاسترجاع، وخطوط التوثيق، وطبقات التعليمات. وتؤكد نتائج Google نفسها هذا بوضوح: لم تكن القفزة تدريجية، بل كانت تحويلية.
ومع ذلك، لا يزال هناك سبب للحذر. فالأرقام المعلنة تأتي من معيار محدد، والمعايير لا تعكس دائمًا بيئات التطوير الواقعية المليئة بالفوضى. كما أنها لا تجيب بالكامل عن أسئلة مثل قابلية الصيانة، وجودة التصحيح، أو مدى قدرة الوكيل على التعامل مع المتطلبات الغامضة. لكن الدرس الأساسي معقول ويصعب تجاهله بشكل متزايد.
أنظمة البرمجة بالذكاء الاصطناعي لا تحتاج إلى الذكاء فقط، بل تحتاج أيضًا إلى الحداثة. ويُعد Agent Skill في Gemini API من Google محاولة ملموسة لتطبيق هذه الفكرة عمليًا، وتشير التحسينات المعلنة إلى أن إبقاء النماذج متزامنة مع أنظمتها البيئية المتطورة قد يكون من أكثر الطرق فاعلية لجعلها مفيدة حقًا.
هذه المقالة مبنية على تقرير من The Decoder. اقرأ المقال الأصلي.



