స్వయం నియంత్రిత సైబర్ రక్షణ ఎంత దూరం వెళ్లాలి అని ఆర్మీ పరీక్షిస్తోంది

ప్రైవేట్-సెక్టార్ టెక్ నాయకులతో జరిగిన తాజా వర్గేమ్ తర్వాత, భవిష్యత్తు దాడులు మానవ ఆపరేటర్లను ముంచెత్తగలవని పరిశీలించినందున, సైబర్ రక్షణలో AI కి మరింత దూకుడైన పాత్రను అమెరికా ఆర్మీ వేగంగా పరిశీలిస్తోంది. AI Table Top Exercise 2.0 అని పిలిచిన ఈ వ్యాయామం, 14 టెక్ కంపెనీల ఎగ్జిక్యూటివ్‌లు, ఆర్మీ అధికారులు, మరియు U.S. Cyber Command ను ఒక తీవ్రమైన సందర్భం చుట్టూ ఒకచోట చేర్చింది: 2027 Indo-Pacific సంక్షోభం, అమెరికన్ సైనిక నెట్‌వర్క్‌లపై సైబర్ యుద్ధంగా మారడం.

ప్రధాన నిర్ధారణ AI ఒక్కటే సైబర్ రక్షణను పరిష్కరించగలదని కాదు. ప్రత్యర్థులు మనుషులు స్పందించగలిగిన దానికంటే వేగంగా probe చేయగల, exploit చేయగల, మరియు tactics మార్చగల adaptive, AI-సক্ষম attack systems ను ఉపయోగిస్తే, human-speed defense సరిపోదని అది చెప్పింది. ఆ కారణంగానే ఆర్మీ అధికారులు agentic AI గురించి మరింత బహిరంగంగా మాట్లాడుతున్నారు, మరియు ఆ వ్యవస్థలకు ఎప్పుడు ఎక్కువ స్వాతంత్ర్యం ఇవ్వాలో నిర్ణయించే policy structure ను నిర్మించడం గురించి ఆలోచిస్తున్నారు.

హెచ్చరిక నుండి ప్రతిస్పందనకు

Army Secretary Daniel Driscoll కు principal cyber advisor అయిన Brandon Pugh ఈ సమస్యను risk appetite దృష్టిలో ఉంచి వివరించాడు. శాంతి కాలంలో మానవ పర్యవేక్షణే డిఫాల్ట్‌గా ఉండవచ్చు. యుద్ధకాలంలో, ముఖ్యంగా దాడుల తరంగం సమయంలో, software agents చర్య తీసుకోవడానికి వేరే threshold అవసరం కావొచ్చు. అదే అధికారులు వివరించిన potential “risk continuum” policy వెనుక ఉన్న తర్కం; పరిస్థితిని బట్టి మానవ భాగస్వామ్య స్థాయిని మార్చే విధానం.

అది చాలా ముఖ్యమైన తేడా. Department of Defense ఇప్పటికే తన నెట్‌వర్క్‌లపై intrusions ను గుర్తించడానికి AI ని ఉపయోగిస్తోంది. కానీ detection కేవలం మొదటి దశ మాత్రమే. breach జరుగుతున్నప్పుడు AI systems స్వయంగా direct response చర్యలు తీసుకోవాలా అనే ప్రశ్నే కఠినమైనది.

Pugh చెప్పినట్లుగా, ఆర్మీ ఇప్పటికే detection కోసం AI వినియోగంలో బలంగా ఉంది, కానీ ఇప్పుడు అది agentic capabilities వైపు వెళ్లాలి; అవి దుష్ట ప్రవర్తనను గుర్తించడమే కాకుండా ప్రతిస్పందించగలగాలి. అది systems ను isolate చేయడం, connections ను block చేయడం, countermeasures ను ప్రారంభించడం, లేదా దాడి వ్యాప్తి చెందే ముందు అడ్డుకోవడం వంటి చర్యలను కలిగి ఉండవచ్చు.

ఆర్మీకి ఇది ఎందుకు అత్యవసరం అనిపిస్తోంది

Army Cyber Command ను నడిపించే Lt. Gen. Christopher Eubank సమస్యను నిర్దాక్షిణ్యంగా వివరించారు. agentic AI ప్రపంచంలో రక్షకులకు “patch faster” అని చెప్పడం అవాస్తవమని ఆయన అన్నారు. offensive systems రక్షణ మార్పులకు నిరంతరం తగిన విధంగా repeated attacks చేస్తుంటే, మానవ టీమ్‌లు ఒంటరిగా ఆ వేగాన్ని అందుకోలేవు.

వ్యాయామ దృశ్యం అదే భావనపై నిర్మించబడింది. ఒక hypothetical adversary AI ని ఉపయోగించి ఆర్మీ యొక్క defensive posture కంటే వేగంగా మారుతూ వచ్చిన cyberattacks salvos ను వరుసగా ప్రారంభించిందని అధికారులు చెప్పారు. అలాంటి ఒత్తిడి సాధారణ నెట్‌వర్క్ రక్షణకు భిన్నం. ఇది cyber operations ను వేగపు పోటిగా మార్చుతుంది, అక్కడ ఆలస్యం itself ఒక vulnerability అవుతుంది.

అలా చూసినప్పుడు, ఆర్మీకి ఎక్కువ స్వాతంత్ర్యం కావాలనే ఆసక్తి automation పట్ల ఉత్సాహం కంటే, time compression కు ఒక practical response లాగా కనిపిస్తోంది. దాడి లూప్ వేగవంతమవుతుంటే, రక్షణ లూప్ కూడా వేగవంతం కావాలి.

సిద్ధాంతాన్ని ఆకారమివ్వడంలో పరిశ్రమ పాత్ర

ఈ వ్యాయామంలో ఒక ముఖ్యమైన విషయం ఏమిటంటే, ఇది narrow, scripted technical simulation గా నడపబడలేదు. Strategic Competitive Studies Project రూపొందించి నిర్వహించిన ఇది seminar-style format ను ఉపయోగించింది, అందులో 14 tech firms నుంచి వచ్చిన ఎగ్జిక్యూటివ్‌లు recommendations అందించారు, military participants ఆ ఆలోచనలను ప్రశ్నించారు. ఈ ఫార్మాట్ ఆర్మీ కేవలం products ను కొనుగోలు చేయడం లేదని సూచిస్తుంది. వాణిజ్య AI ఆలోచన military cyber doctrine ను ఎలా ఆకారమివ్వాలో అది అర్థం చేసుకోవడానికి ప్రయత్నిస్తోంది.

ఇది ఒక ముఖ్యమైన తేడా. core ప్రశ్నలు tool పని చేస్తుందా అనేదానితో మాత్రమే ఆగవు, దాన్ని ఎవరు authorize చేయగలరు, ఏ పరిస్థితుల్లో, ఏ safeguards తో, మరియు false positives లేదా unintended consequences పట్ల ఎంత tolerance ఉండాలి అన్నదీ వాటిలో ఉంది. ఇవి engineering ప్రశ్నలతో పాటు policy మరియు command ప్రశ్నలు కూడా.

ఆర్మీ దాన్ని గుర్తించినట్టే కనిపిస్తోంది. వ్యాయామం definitive answers ఇవ్వలేదు, అధికారులు కూడా దాని గురించి స్పష్టంగా చెప్పారు. కానీ catastrophic delay ఉండే conflict scenario లో autonomous defense గురించి ఎలా ఆలోచించాలో military leaders కు outside perspectives ఇచ్చింది.

పాలసీ సమస్య సాంకేతిక సమస్యకంటే కఠినంగా ఉండవచ్చు

agentic cyber systems నిర్మించడం కష్టం. వాటిపై నమ్మకం నిర్మించడం ఇంకా కష్టమయ్యే అవకాశం ఉంది. చాలా మందగించిన defensive AI ప్రభావవంతం కాదు. చాలా వేగంగా లేదా చాలా విస్తృతంగా చర్య తీసుకునే AI, friendly operations ను భంగం చేయవచ్చు, legitimate traffic ను నిలిపేయవచ్చు, లేదా crisis సమయంలో కొత్త risks ను సృష్టించవచ్చు.

అందుకే emerging “risk continuum” భావన ఏ ఒక్క product announcement కంటే ఎక్కువ ప్రాముఖ్యత కలిగి ఉండొచ్చు. ఇది autonomy levels స్థిరంగా కాకుండా పరిస్థితులకు అనుగుణంగా ఉంటాయని ఆర్మీ భవిష్యత్తుకు సిద్ధమవుతోందని సూచిస్తోంది. ఒక సాధారణ నెట్‌వర్క్ వాతావరణం కఠినమైన మానవ నియంత్రణను కోరవచ్చు. ఒక పెద్ద యుద్ధకాల దాడి, machine-driven attacks చేత మించిపోకుండా ఉండటం ప్రత్యామ్నాయమైతే, చాలా తేలికైన supervision ను సమర్థించవచ్చు.

అలాంటి framework ప్రతి ethical లేదా operational ప్రశ్నను పరిష్కరించదు, కానీ technical capabilities ను command authority మరియు mission context తో కలపడానికి ఒక మార్గాన్ని అందిస్తుంది. ఆచరణలో, అదే agentic defense పెద్ద స్థాయిలో ఉపయోగపడుతుందా లేదా నిర్ణయించవచ్చు.

తర్వాత ఏమిటి

ఆర్మీ తదుపరి చర్యల్లో tool development మరియు policy design రెండూ ఉండేలా కనిపిస్తున్నాయి. కొత్త AI capabilities ను వేగంగా ముందుకు తీసుకెళ్లడమే కాకుండా, వాటి వినియోగాన్ని నియంత్రించే rules పై కూడా పని చేయాలనుకుంటున్నామని అధికారులు చెప్పారు. ఈ dual track సరైనదే, ఎందుకంటే ఒకటి లేకుండా మరొకటి విఫలమవుతుంది. doctrine లేకుండా technology chaos ను తెస్తుంది. capable technology లేకుండా doctrine అసమర్థమవుతుంది.

విస్తృత implication ఏమిటంటే, military cyber defense ఒక కొత్త దశలోకి ప్రవేశిస్తోంది. AI ను ఇక కేవలం analysts కు సహాయపడే సాధనంగా మాత్రమే చూడటం లేదు. human timing సరిపోనప్పుడు machine speed లో చర్య తీసుకోవాల్సిన operational actor గా దాన్ని పరిగణిస్తున్నారు.

ఆ agents కు ఎంత leash ఇవ్వాలనే విషయంపై ఆర్మీ ఇంకా నిర్ణయం తీసుకోలేదు. కానీ ఈ వర్గేమ్ తర్వాత, ఆ నిర్ణయం తీసుకోకపోవడమే పెద్ద ప్రమాదం కావచ్చనే భవిష్యత్తుకు అది స్పష్టంగా సిద్ధమవుతోంది.

ఈ వ్యాసం Breaking Defense రిపోర్టింగ్‌పై ఆధారపడి ఉంది. అసలు వ్యాసాన్ని చదవండి.