स्वायत्त सायबर संरक्षण किती दूर जावे याची चाचणी आर्मी घेत आहे
खाजगी क्षेत्रातील तंत्रज्ञान नेत्यांसोबत झालेल्या अलीकडील वॉरगेमनंतर, भविष्यातील हल्ले मानवी ऑपरेटरांना मागे टाकू शकतात हे तपासल्यानंतर, सायबर संरक्षणात AI ची अधिक आक्रमक भूमिका आर्मी वेगाने तपासत आहे. AI Table Top Exercise 2.0 नावाच्या या सरावात 14 टेक कंपन्यांचे कार्यकारी अधिकारी, आर्मी अधिकारी, आणि U.S. Cyber Command एका कठोर परिदृश्याभोवती एकत्र आले: 2027 मधील Indo-Pacific संकट, जे अमेरिकन लष्करी नेटवर्क्सविरुद्ध सायबर युद्धात बदलते.
मुख्य निष्कर्ष असा नव्हता की AI एकट्याने सायबर संरक्षणाचे समाधान करू शकते. निष्कर्ष असा होता की जर प्रतिस्पर्धी अनुकूल, AI-सक्षम हल्ला प्रणाली वापरत असतील ज्या मानवांपेक्षा जलद probe, exploit, आणि रणनीती बदलू शकतात, तर human-speed defense पुरेसे राहणार नाही. त्यामुळेच आर्मी अधिकारी agentic AI बद्दल अधिक उघडपणे बोलत आहेत, आणि अशा प्रणालींना केव्हा अधिक स्वायत्तता द्यावी यासाठी धोरणात्मक चौकट तयार करण्याचा विचार करत आहेत.
इशाऱ्यापासून प्रतिसादापर्यंत
Army Secretary Daniel Driscoll यांचे principal cyber advisor Brandon Pugh यांनी हा मुद्दा risk appetite च्या दृष्टीने मांडला. शांततेच्या काळात मानवी देखरेख डिफॉल्ट राहू शकते. युद्धकाळात, विशेषतः हल्ल्यांच्या लाटेदरम्यान, सॉफ्टवेअर एजंटना कृती करण्याची परवानगी देण्यासाठी वेगळी threshold लागू शकते. हीच अधिकाऱ्यांनी वर्णन केलेल्या संभाव्य “risk continuum” धोरणामागील तर्कशुद्धता आहे, जी परिस्थितीनुसार मानवी सहभागाची पातळी बदलते.
हा फरक अत्यंत महत्त्वाचा आहे. Department of Defense आधीच आपल्या नेटवर्क्सवर घुसखोरी शोधण्यासाठी AI वापरत आहे. पण detection फक्त पहिली पायरी आहे. breach चालू असताना AI प्रणालींना थेट response action घेण्याची परवानगी द्यावी का, हा कठीण प्रश्न आहे.
Pugh म्हणाले की आर्मी detection साठी AI वापरण्यात आधीच मजबूत आहे, पण आता तिला agentic capabilities कडे पुढे जायचे आहे, ज्या फक्त दुष्ट वर्तन ओळखणार नाहीत तर त्यावर प्रतिसादही देतील. त्यात सिस्टम वेगळी करणे, कनेक्शन ब्लॉक करणे, countermeasures सुरू करणे, किंवा हल्ला पसरण्यापूर्वी तो थांबवणे यांचा समावेश होऊ शकतो.
आर्मीला हे तातडीचे का वाटते
Army Cyber Command चे नेतृत्व करणारे Lt. Gen. Christopher Eubank यांनी समस्या थेट मांडली. agentic AI च्या जगात बचावकर्त्यांना फक्त “patch faster” असे सांगणे अव्यवहार्य आहे, असे ते म्हणाले. जर आक्रमक प्रणाली संरक्षणातील बदलांना सतत जुळवून घेत पुनःपुन्हा हल्ले करत असतील, तर मानवी टीम्स एकट्याने त्याचा वेग पकडू शकणार नाहीत.
सरावाचे परिदृश्य याच गृहितकावर तयार केले होते. अधिकाऱ्यांनी सांगितले की काल्पनिक प्रतिस्पर्ध्याने AI वापरून सायबर हल्ल्यांच्या सलग लाटा सुरू केल्या, ज्या आर्मीच्या defensive posture शी मानवापेक्षा जलद जुळत होत्या. अशा प्रकारचा दबाव सामान्य नेटवर्क संरक्षणापेक्षा वेगळा असतो. तो सायबर ऑपरेशन्सना वेगाच्या स्पर्धेत बदलतो, जिथे संकोचच एक कमजोरी ठरतो.
त्या दृष्टीने पाहिले तर, आर्मीला अधिक स्वायत्ततेत रस असणे हे automation बद्दलच्या उत्साहापेक्षा time compression साठीची व्यावहारिक प्रतिक्रिया आहे. हल्ल्याचा लूप वेगवान होत असेल, तर संरक्षणाचा लूपही वेगवान व्हायला हवा.
सिद्धांत घडवण्यात उद्योगाची भूमिका
या सरावाचे एक उल्लेखनीय वैशिष्ट्य म्हणजे तो संकुचित, स्क्रिप्टेड तांत्रिक सिम्युलेशन म्हणून चालवला गेला नव्हता. Strategic Competitive Studies Project ने डिझाइन आणि आयोजित केलेल्या या स्वरूपात seminar-style पद्धत वापरली गेली, ज्यात 14 टेक फर्म्समधील कार्यकारी अधिकाऱ्यांनी शिफारसी दिल्या आणि लष्करी सहभागी त्या कल्पनांची चौकशी करत होते. हा फॉरमॅट दर्शवतो की आर्मी फक्त उत्पादने खरेदी करत नाही. ती व्यावसायिक AI विचारसरणीने लष्करी सायबर सिद्धांत कसा आकार घ्यावा हे समजून घेण्याचा प्रयत्न करत आहे.
हा एक महत्त्वाचा फरक आहे. मुख्य प्रश्न फक्त एखादे साधन काम करते का इतकाच नाही, तर ते कोण अधिकृत करू शकते, कोणत्या परिस्थितीत, कोणत्या सुरक्षा उपायांसह, आणि खोट्या सकारात्मक परिणामांबद्दल किंवा अनपेक्षित परिणामांबद्दल किती सहनशीलता ठेवली जाईल. हेवढेच नाही तर ही धोरण आणि कमांडचीही प्रश्न आहेत, तेवढेच ते अभियांत्रिकीचेही आहेत.
आर्मीला ते समजले आहे असे दिसते. सरावातून निश्चित उत्तरे मिळाली नाहीत, आणि अधिकारी त्याबद्दल प्रामाणिक होते. पण यामुळे लष्करी नेत्यांना अशा संघर्षपरिस्थितीत स्वायत्त संरक्षणाबद्दल कसे विचार करावे याबद्दल बाह्य दृष्टिकोन मिळाले, जिथे विलंब विनाशकारी ठरू शकतो.
धोरणात्मक समस्या तांत्रिक समस्येपेक्षा कठीण असू शकते
agentic cyber systems तयार करणे कठीण आहे. त्यांच्यावर विश्वास निर्माण करणे कदाचित आणखी कठीण आहे. खूप मंद प्रतिसाद देणारे defensive AI निष्फळ ठरते. खूप जलद किंवा खूप व्यापकपणे कार्य करणारे AI मैत्रीपूर्ण ऑपरेशन्स बिघडवू शकते, वैध ट्रॅफिक बंद करू शकते, किंवा संकटात नवीन जोखीम निर्माण करू शकते.
म्हणूनच emerging “risk continuum” ही संकल्पना कोणत्याही विशिष्ट उत्पादन घोषणेपेक्षा अधिक महत्त्वाची असू शकते. ती सूचित करते की स्वायत्ततेची पातळी स्थिर नसून परिस्थितीनुसार असेल. एक सामान्य नेटवर्क वातावरण कडक मानवी नियंत्रणाची मागणी करू शकते. एक मोठा युद्धकालीन हल्ला, जर पर्याय मशीन-चालित हल्ल्यांमुळे मागे पडणे असेल, तर अधिक सैल देखरेखीचे समर्थन करू शकतो.
अशी चौकट सर्व नैतिक किंवा कार्यकारी प्रश्न सोडवणार नाही, पण तांत्रिक क्षमतांना command authority आणि mission context शी जोडण्याचा मार्ग देईल. प्रत्यक्षात, तेच agentic defense मोठ्या प्रमाणात उपयोगी ठरेल का हे ठरवू शकते.
पुढे काय
आर्मीच्या पुढील पावलांमध्ये tool development आणि policy design दोन्ही असतील असे दिसते. अधिकाऱ्यांनी सांगितले की ते नवीन AI क्षमता जलद पुढे न्यायला इच्छितात, तसेच त्याच्या वापराचे नियमही तयार करत आहेत. हा दुहेरी मार्ग योग्य आहे, कारण एकाशिवाय दुसरे अपयशी ठरेल. doctrine शिवाय तंत्रज्ञान गोंधळ निर्माण करते. सक्षम तंत्रज्ञानाशिवाय doctrine अप्रासंगिक ठरते.
मोठा अर्थ असा आहे की लष्करी सायबर संरक्षण एका नव्या टप्प्यात प्रवेश करत आहे. AI आता फक्त विश्लेषकांसाठीची मदत म्हणून पाहिले जात नाही. मानवी वेळ पुरेशी नसताना मशीन वेगाने कृती करावी लागेल असा operational actor म्हणून त्याचा विचार केला जात आहे.
त्या agents ना किती मोकळीक द्यायची हे आर्मीने अद्याप ठरवलेले नाही. पण या वॉरगेमनंतर, तो निर्णय न घेणेच अधिक मोठा धोका ठरू शकतो अशा भविष्याची ती स्पष्टपणे तयारी करत आहे.
हा लेख Breaking Defense च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.


