AI एजेंट अब केवल उत्पादकता का उपकरण नहीं, बल्कि एक शासन समस्या भी हैं

जैसे-जैसे कंपनियां व्यावसायिक कार्यप्रवाहों में AI एजेंट तैनात करने की तैयारी कर रही हैं, सुरक्षा और शासन इस तकनीक को सुरक्षित रूप से बढ़ाने में केंद्रीय बाधाएं बनते जा रहे हैं।

Deloitte Microsoft Technology Practice के सहयोग से तैयार MIT Technology Review Insights लेख का तर्क है कि agentic AI उद्यम के लिए एक नई आक्रमण सतह खोल सकता है। चिंता यह है कि असुरक्षित एजेंटों को संवेदनशील प्रणालियों, स्वामित्व डेटा, या उनकी निर्धारित भूमिका से बाहर के उपकरणों तक पहुंचने के लिए हेरफेर किया जा सकता है।

यह लेख MIT Technology Review की संपादकीय रिपोर्टिंग नहीं, बल्कि प्रायोजित सामग्री है, लेकिन इसमें सर्वेक्षण के आंकड़े और एक स्पष्ट उद्यम-जोखिम दृष्टिकोण शामिल है। लेख में उद्धृत Deloitte AI Institute 2026 State of AI रिपोर्ट के अनुसार, लगभग 74% कंपनियां दो वर्षों के भीतर agentic AI तैनात करने की योजना बना रही हैं। केवल 21% कंपनियां स्वायत्त एजेंटों के शासन के लिए परिपक्व मॉडल होने की बात कहती हैं।

गैर-मानवीय पहचानें तेजी से बढ़ रही हैं

लेख के प्रमुख बिंदुओं में से एक यह है कि आधुनिक उद्यम पहले से ही service accounts, machine credentials, automated workflows, और software actors जैसी गैर-मानवीय पहचान की बढ़ती संख्या का प्रबंधन कर रहे हैं। Agentic AI इस प्रवृत्ति को तेज कर सकता है क्योंकि एजेंटों को अनुमतियों, डेटा एक्सेस, टूल एक्सेस, और उपयोगकर्ताओं या व्यावसायिक कार्यों की ओर से कार्य करने की क्षमता की आवश्यकता हो सकती है।

यह सामान्य chatbot उपयोग से अलग जोखिम प्रोफ़ाइल बनाता है। प्रश्नों का उत्तर देने वाली conversational प्रणाली एक बात है; फ़ाइलें प्राप्त करने, आंतरिक टूल कॉल करने, सिस्टम में लिखने, या कार्रवाई आरंभ करने वाला एजेंट दूसरी बात है। शासन को यह परिभाषित करना होगा कि एजेंट क्या कर सकता है, वह किस अधिकार का उपयोग कर रहा है, और उसके व्यवहार की निगरानी कैसे होगी।

स्रोत लेख कहता है कि कार्यकारी अधिकारी सबसे अधिक डेटा गोपनीयता और सुरक्षा को लेकर चिंतित हैं, जिसका उल्लेख 73% के रूप में किया गया है। कानूनी, बौद्धिक संपदा, और नियामक अनुपालन 50% पर आते हैं, जबकि शासन क्षमताएं और पर्यवेक्षण 46% पर दर्ज हैं।

कंट्रोल-प्लेन अवधारणा AI संचालन में प्रवेश कर रही है

Deloitte की Cyber Practice में principal Andrew Rafla एक control plane को एक केंद्रीकृत परत के रूप में वर्णित करते हैं जो नियंत्रित करती है कि कौन से एजेंट किन अनुमतियों के साथ, किन नीतियों के अंतर्गत, और किन मॉडलों व टूल्स का उपयोग करके चल सकते हैं। उनके अनुसार, ऐसी परत के बिना कंपनियों के पास स्केलेबल स्वायत्त संचालन नहीं, बल्कि असंगठित निष्पादन होता है।

यह अवधारणा इसलिए महत्वपूर्ण है क्योंकि उद्यम शायद ही कभी तकनीक को अलग-थलग तैनात करते हैं। AI एजेंट identity systems, document stores, customer records, code repositories, analytics platforms, और बाहरी सेवाओं के साथ इंटरैक्ट कर सकते हैं। यदि हर तैनाती अनुमतियों और auditability को अलग तरीके से संभालती है, तो पर्यवेक्षण खंडित हो जाता है।

एक कार्यात्मक शासन प्रणाली को बुनियादी परिचालन प्रश्नों का उत्तर देना होगा: एजेंट ने क्या किया, किसकी ओर से किया, किस डेटा का उपयोग किया, किस नीति के अंतर्गत किया, और क्या उस क्रिया को दोहराया या रोका जा सकता है। लेख इन प्रश्नों को उद्यम-स्तरीय agent उपयोग की न्यूनतम नींव के रूप में प्रस्तुत करता है।

शासन पायलट को उत्पादन से अलग करता है

स्रोत का तर्क है कि शासन ही AI एजेंटों को प्रयोगों से दोहराए जाने योग्य उद्यम स्वचालन में बदलता है। पायलट प्रोजेक्ट अक्सर करीबी निगरानी, सीमित डेटा, या मैन्युअल guardrails पर निर्भर रह सकते हैं। उत्पादन तैनातियों को ऐसे नियंत्रणों की आवश्यकता होती है जो टीमों और उपयोग मामलों में लगातार काम करें।

जोखिम केवल यह नहीं कि कोई एजेंट एक गलती कर दे। जोखिम यह है कि खराब तरीके से शासित agent प्रणाली अप्रत्याशित रूप से और बड़े पैमाने पर विफल हो सकती है। यदि कई एजेंटों के पास व्यापक पहुंच, कमजोर निगरानी, या अस्पष्ट जवाबदेही है, तो छोटी डिज़ाइन खामियां प्रणालीगत जोखिम में बदल सकती हैं।

व्यवसायों के लिए निकटकालिक निहितार्थ यह है कि agent तैनाती के साथ identity, security, compliance, और observability योजना होनी चाहिए। शासन को बाद में जोड़ने योग्य चीज मानना शुरुआती पायलटों को आसान बना सकता है, लेकिन व्यापक रोलआउट के लिए आवश्यक नियंत्रण संरचनाओं के बिना संगठन छोड़ सकता है।

लेख क्या संकेत देता है

यह लेख enterprise AI चर्चा में एक व्यापक बदलाव को दर्शाता है। प्रश्न अब केवल यह नहीं है कि AI एजेंट उपयोगी काम स्वचालित कर सकते हैं या नहीं। सवाल यह है कि क्या संगठन उन सीमाओं को परिभाषित और लागू कर सकते हैं जिनके भीतर ये एजेंट काम करते हैं।

चूंकि स्रोत प्रायोजित सामग्री है, इसकी सिफारिशों को उसी संदर्भ में पढ़ना चाहिए। फिर भी, इसमें पहचानी गई जोखिम श्रेणियां ठोस हैं: गोपनीयता, सुरक्षा, कानूनी अनुपालन, बौद्धिक संपदा, पर्यवेक्षण, अनुमतियां, और auditability. ये सभी agentic AI के प्रदर्शन-प्रदर्शन से operational systems में जाने पर केंद्रीय बने रहने की संभावना है।

यह लेख MIT Technology Review की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.

Originally published on technologyreview.com