مع ازدياد صلاحيات وكلاء الذكاء الاصطناعي، تصبح أدوات الاستعادة جزءًا من العرض
أطلقت Commvault منتجًا جديدًا باسم AI Protect، وُصف في المادة المرشحة المرفقة بأنه نوع من “Ctrl-Z” لأعباء عمل الذكاء الاصطناعي السحابية. والصياغة مباشرة: تحتاج بيئات المؤسسات الآن إلى وظيفة تراجع لوكلاء الذكاء الاصطناعي العاملين عبر البنية التحتية، حيث قد يؤدي خطأ واحد إلى حذف بيانات أو خدمات مهمة أو إفسادها أو تعطيلها بطرق أخرى.
حتى من المقتطف المحدود المتاح من المصدر، يعكس تموضع المنتج تحولًا مهمًا في الذكاء الاصطناعي المؤسسي. فالنقاش ينتقل من ما يمكن للوكلاء أتمتته إلى ما يمكن للمؤسسات استعادته عندما تفشل تلك الأتمتة.
الاستعادة تصبح متطلبًا أساسيًا في الذكاء الاصطناعي
يقول مقتطف المصدر إن البرمجيات المستقلة تتنقل الآن عبر البنية التحتية مع احتمال إلحاق الضرر بالأنظمة أو البيانات. وهذا القلق هو جوهر طرح Commvault. إذا كانت المؤسسات ستسمح لأنظمة الذكاء الاصطناعي باتخاذ إجراءات في البيئات السحابية، فهي بحاجة إلى آلية عملية لعكس الأخطاء، لا مجرد اكتشافها بعد وقوعها.
تشبه هذه الفكرة إلى حد كبير التفكير التقليدي في النسخ الاحتياطي والتعافي من الكوارث، لكنها مكيّفة مع مشكلة أحدث. ففي تكنولوجيا المعلومات التقليدية، كانت أدوات المرونة موجودة أساسًا للحماية من فشل العتاد، والهجمات السيبرانية، وأخطاء المشغل، والانقطاعات. أما في البيئات الكثيفة بالذكاء الاصطناعي، فإن سلوك الوكيل نفسه يصبح فئة أخرى من مخاطر التشغيل. والمنتج الذي يُسوَّق على أنه زر تراجع هو في جوهره طبقة مرونة لقرارات تصنعها الآلات.
والتوقيت لافت. فقد ركز جزء كبير من سوق الذكاء الاصطناعي الحالي على الوكالة، والتنظيم، وسير العمل المستقل. وقد شددت الشركات الموردة على مدى سرعة تصرف الوكلاء عبر التطبيقات والبنية التحتية. لكن كلما ازدادت الصلاحيات الممنوحة للبرمجيات، ازدادت قيمة القابلية للعكس. فالمؤسسات لا تريد مجرد فعل. إنها تريد فعلًا محدودًا.
لماذا قد يلقى هذا الخطاب صدى لدى مشترِي الخدمات السحابية
من المرجح أن لغة Commvault تجذب المشترين لأنها تترجم مشكلة معقدة في إدارة المخاطر إلى استعارة مألوفة للمستخدم. فـ“Ctrl-Z” مفهوم فورًا. وهو لا يلمح إلى الحوكمة المجردة، بل إلى القدرة العملية على الرجوع خطوة إلى الوراء قبل أن تنتشر عواقب الفعل الضار.
وهذا مهم في بيئات الذكاء الاصطناعي السحابية، حيث يمكن لحذف خاطئ، أو سير عمل تالف، أو وكيل يتصرف بناءً على سياق غير صحيح أن يتسبب في انتشار سريع للتأثيرات. وكلما كانت الأنظمة أكثر ترابطًا، أصبحت الفعلة السيئة أكثر كلفة. ويدخل منتج الاستعادة هذا السوق بوصفه شكلًا من أشكال الضمان التشغيلي.
لا تتضمن المادة المرشحة تفاصيل التنفيذ التقني لـ AI Protect، ولذلك يبقى هذا المقال قريبًا من الوصف المدعوم. وما هو واضح هو فئة المنتج التي تريد Commvault تعريفها: ليست مجرد أمن للذكاء الاصطناعي، وليست فقط نسخًا احتياطيًا بالمعنى القديم، بل قابلية الاستعادة للعمليات المدفوعة بالذكاء الاصطناعي.
مكدس الذكاء الاصطناعي المؤسسي يتجاوز النماذج
أحد أهم التطورات في الذكاء الاصطناعي المؤسسي هو اتساع المكدس. فقد انصب الاهتمام في البداية على النماذج، والمساعدين الذكيين، وطبقات التنظيم. لكن بشكل متزايد أصبحت الضوابط المحيطة بها مهمة بالقدر نفسه. ويشمل ذلك الهوية، والسياسات، والمراقبة، والتسجيل، والآن الاستعادة.
ويتوافق إطلاق Commvault مع هذا النمط. فهو لا يعامل أعباء عمل الذكاء الاصطناعي كمجال تجريبي منفصل، بل كأي نطاق تشغيلي آخر يحتاج إلى الجدية نفسها التي تمنحها الشركات بالفعل للأنظمة الحساسة الأخرى. عمليًا، قد يصبح ذلك شرطًا أساسيًا لتبني الوكلاء على نطاق أوسع. فكثيرًا ما تكون الشركات مستعدة لاختبار الأتمتة القوية قبل أن تكون مستعدة للثقة بها على نطاق واسع.
إذا اكتسب AI Protect زخمًا، فسيكون ذلك على الأرجح لأنه يخاطب فجوة الثقة تلك. فعملاء المؤسسات نادرًا ما يحتاجون إلى إقناعهم بأن الذكاء الاصطناعي يمكنه التحرك بسرعة. ما يحتاجون إلى الاقتناع به هو أن الأنظمة السريعة يمكن حوكمتها واحتواؤها واستعادتها عندما تخطئ.
وهذا يجعل إطلاق Commvault أكثر من مجرد تمرين في العلامة التجارية. إنه علامة على أن الموجة التالية من أدوات الذكاء الاصطناعي المؤسسي قد تُقيَّم أقل بناءً على مقدار الاستقلالية التي تضيفها، وأكثر بناءً على مدى تمكينها المؤسسات من التعايش مع المخاطر التي تخلقها تلك الاستقلالية.
- أطلقت Commvault منتج AI Protect لبيئات الذكاء الاصطناعي السحابية.
- يُطرح المنتج كطبقة استعادة على نمط “Ctrl-Z” لوكلاء الذكاء الاصطناعي المؤسسيين.
- يعكس هذا الطرح طلبًا متزايدًا على القابلية للعكس مع تولي البرمجيات المستقلة مزيدًا من المهام التشغيلية.
يعتمد هذا المقال على تغطية AI News. اقرأ المقال الأصلي.
Originally published on artificialintelligence-news.com
