आर्मी यह परख रही है कि स्वायत्त साइबर रक्षा कितनी दूर तक जानी चाहिए

अमेरिकी आर्मी साइबर रक्षा में AI की अधिक आक्रामक भूमिका की तेज़ी से समीक्षा कर रही है, क्योंकि हालिया वॉरगेम में निजी क्षेत्र के तकनीकी नेताओं के साथ यह देखा गया कि भविष्य के हमले मानव ऑपरेटरों पर हावी हो सकते हैं। AI Table Top Exercise 2.0 नामक इस अभ्यास में 14 टेक कंपनियों के अधिकारी, आर्मी के अधिकारी, और U.S. Cyber Command एक कठोर परिदृश्य के इर्द-गिर्द एकत्र हुए: 2027 का Indo-Pacific संकट जो अमेरिकी सैन्य नेटवर्कों के खिलाफ साइबर युद्ध में बदल जाता है।

मुख्य निष्कर्ष यह नहीं था कि AI अकेले साइबर रक्षा का समाधान कर सकता है। निष्कर्ष यह था कि अगर प्रतिद्वंद्वी अनुकूलनशील, AI-सक्षम हमला प्रणालियों का उपयोग कर रहे हैं जो लोगों की प्रतिक्रिया से तेज़ जांच, शोषण और रणनीति बदल सकती हैं, तो मानव गति वाली रक्षा अब पर्याप्त नहीं हो सकती। इसी ने आर्मी अधिकारियों को agentic AI के बारे में अधिक खुले तौर पर बात करने, और ऐसे नीति ढाँचे पर काम करने के लिए प्रेरित किया है, जो तय करे कि इन प्रणालियों को कब अधिक स्वायत्तता दी जानी चाहिए।

चेतावनी से प्रतिक्रिया तक

Army Secretary Daniel Driscoll के principal cyber advisor Brandon Pugh ने इस मुद्दे को जोखिम-इच्छा के संदर्भ में रखा। शांति काल में मानव निगरानी डिफ़ॉल्ट रह सकती है। युद्धकाल में, खासकर हमलों की लहर के दौरान, आर्मी को सॉफ़्टवेयर एजेंटों को कार्रवाई करने की अनुमति देने के लिए अलग सीमा की आवश्यकता हो सकती है। यही उस संभावित “risk continuum” नीति के पीछे का तर्क है, जो परिस्थितियों के अनुसार मानवीय भागीदारी को बदल सकती है।

यह अंतर महत्वपूर्ण है। Department of Defense पहले ही अपनी नेटवर्कों पर घुसपैठ का पता लगाने में मदद के लिए AI का उपयोग कर रहा है। लेकिन detection केवल पहला कदम है। कठिन सवाल यह है कि क्या breach के दौरान AI प्रणालियों को सीधे प्रतिक्रिया कार्रवाई करने का अधिकार दिया जाना चाहिए।

Pugh ने कहा कि आर्मी detection के लिए AI का उपयोग करने में पहले ही मजबूत है, लेकिन अब उसे agentic क्षमताओं की ओर बढ़ना होगा जो न केवल दुर्भावनापूर्ण व्यवहार की पहचान करें, बल्कि उस पर प्रतिक्रिया भी दें। इसका मतलब सिस्टम को अलग करना, कनेक्शन ब्लॉक करना, countermeasures शुरू करना, या किसी हमले को फैलने से पहले बाधित करना हो सकता है।

आर्मी को यह तात्कालिक क्यों लगता है

Army Cyber Command का नेतृत्व करने वाले Lt. Gen. Christopher Eubank ने चुनौती को साफ शब्दों में बताया। उनके अनुसार, agentic AI की दुनिया में रक्षकों से सिर्फ “patch faster” कहना अव्यावहारिक है। अगर आक्रामक प्रणालियाँ रक्षात्मक बदलावों के अनुकूल लगातार हमले कर रही हैं, तो मानव टीमें अकेले उस गति से नहीं चल सकतीं।

अभ्यास का परिदृश्य इसी धारणा पर आधारित था। अधिकारियों ने कहा कि काल्पनिक प्रतिद्वंद्वी ने AI का उपयोग करके साइबर हमलों की लगातार कई तरंगें चलाईं, जो आर्मी की रक्षात्मक मुद्रा के अनुसार मानव रक्षक की तुलना में तेज़ी से अनुकूलित हो गईं। इस तरह का दबाव सामान्य नेटवर्क रक्षा से अलग है। यह साइबर संचालन को एक गति-प्रतिस्पर्धा में बदल देता है, जहाँ हिचकिचाहट स्वयं एक कमजोरी बन जाती है।

इस दृष्टि से देखें तो आर्मी की अधिक स्वायत्तता में रुचि स्वचालन के प्रति उत्साह से कम और समय-संपीड़न के प्रति व्यावहारिक प्रतिक्रिया से अधिक है। अगर हमले का चक्र तेज़ हो रहा है, तो रक्षा चक्र को भी तेज़ होना होगा।

सिद्धांत को आकार देने में उद्योग की भूमिका

इस अभ्यास का एक उल्लेखनीय पहलू यह था कि इसे संकीर्ण, स्क्रिप्टेड तकनीकी सिमुलेशन के रूप में नहीं चलाया गया। Strategic Competitive Studies Project द्वारा डिज़ाइन और आयोजित, इसमें सेमिनार-शैली का प्रारूप अपनाया गया, जिसमें 14 टेक फर्मों के अधिकारियों ने सिफारिशें दीं और सैन्य प्रतिभागियों ने उन विचारों की जाँच की। यह प्रारूप संकेत देता है कि आर्मी सिर्फ उत्पाद नहीं खरीद रही है। वह समझना चाहती है कि वाणिज्यिक AI सोच सैन्य साइबर सिद्धांत को कैसे आकार देनी चाहिए।

यह महत्वपूर्ण अंतर है। मूल प्रश्न सिर्फ यह नहीं हैं कि कोई टूल काम करता है या नहीं, बल्कि यह भी कि उसे अनुमति कौन देगा, किन परिस्थितियों में, किन सुरक्षा उपायों के साथ, और झूठे सकारात्मक या अनचाहे परिणामों के लिए कितनी सहनशीलता होगी। ये उतने ही नीति और कमान के प्रश्न हैं जितने इंजीनियरिंग के।

आर्मी यह समझती दिखती है। अभ्यास से कोई अंतिम उत्तर नहीं निकला, और अधिकारी इस बारे में स्पष्ट थे। लेकिन इससे सैन्य नेताओं को एक ऐसे संघर्ष परिदृश्य में स्वायत्त रक्षा के बारे में सोचने के लिए बाहरी दृष्टिकोण मिला, जहाँ देरी विनाशकारी हो सकती है।

नीति समस्या तकनीकी समस्या से कठिन हो सकती है

agentic cyber systems बनाना मुश्किल है। उन पर भरोसा बनाना शायद और भी मुश्किल। बहुत धीमी प्रतिक्रिया देने वाली रक्षात्मक AI अप्रभावी है। बहुत तेज़ या बहुत व्यापक रूप से कार्रवाई करने वाली AI मित्रवत ऑपरेशनों को बाधित कर सकती है, वैध ट्रैफ़िक बंद कर सकती है, या संकट के दौरान नए जोखिम पैदा कर सकती है।

इसीलिए उभरती हुई “risk continuum” अवधारणा किसी भी विशिष्ट उत्पाद घोषणा से अधिक महत्वपूर्ण हो सकती है। यह संकेत देती है कि आर्मी ऐसे भविष्य की तैयारी कर रही है जिसमें स्वायत्तता के स्तर स्थिर नहीं, बल्कि परिस्थितिजन्य होंगे। एक नियमित नेटवर्क वातावरण कड़े मानव नियंत्रण की मांग कर सकता है। एक बड़ा युद्धकालीन हमला अधिक ढीली निगरानी को उचित ठहरा सकता है, अगर विकल्प मशीन-चालित हमलों से पीछे रह जाना हो।

ऐसा ढांचा हर नैतिक या परिचालन प्रश्न को हल नहीं करेगा, लेकिन यह तकनीकी क्षमताओं को कमांड प्राधिकरण और मिशन संदर्भ से जोड़ने का एक तरीका देगा। व्यवहार में, यही तय कर सकता है कि agentic defense बड़े पैमाने पर उपयोगी बनती है या नहीं।

आगे क्या

आर्मी के अगले कदमों में टूल विकास और नीति डिज़ाइन दोनों शामिल दिखते हैं। अधिकारियों ने कहा कि वे नई AI क्षमताओं को तेज़ी से आगे बढ़ाना चाहते हैं, साथ ही उनके उपयोग को नियंत्रित करने वाले नियमों पर भी काम कर रहे हैं। यह दोहरी दिशा समझदारी भरी है, क्योंकि एक के बिना दूसरा विफल हो जाएगा। सिद्धांत के बिना तकनीक अराजकता लाती है। सक्षम तकनीक के बिना सिद्धांत अप्रासंगिक हो जाता है।

बड़ा निहितार्थ यह है कि सैन्य साइबर रक्षा एक नए चरण में प्रवेश कर रही है। AI को अब केवल विश्लेषकों की सहायता के रूप में नहीं देखा जा रहा। इसे एक परिचालन अभिनेता के रूप में माना जा रहा है, जिसे मानव समय पर्याप्त न होने पर मशीन गति से कार्रवाई करनी पड़ सकती है।

आर्मी ने अभी तक यह तय नहीं किया है कि उन agents को कितना छूट देना है। लेकिन इस वॉरगेम के बाद, वह स्पष्ट रूप से ऐसे भविष्य की तैयारी कर रही है जिसमें यह निर्णय न लेना ही बड़ा जोखिम साबित हो सकता है।

यह लेख Breaking Defense की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.