தன்னாட்சி சைபர் பாதுகாப்பு எவ்வளவு தூரம் செல்ல வேண்டும் என்பதை இராணுவம் சோதிக்கிறது

தனியார் துறை தொழில்நுட்ப தலைவர்களுடன் நடந்த சமீபத்திய வோர்கேமுக்குப் பிறகு, எதிர்காலத் தாக்குதல்கள் மனித இயக்குநர்களை மிஞ்சக்கூடும் என்பதைக் கண்டறிந்ததால், சைபர் பாதுகாப்பில் AI-க்கு அதிக தாக்கத்துடன் இருக்கும் பங்கு ஒன்றை அமெரிக்க இராணுவம் வேகமாக ஆய்வு செய்து வருகிறது. AI Table Top Exercise 2.0 எனப்படும் இந்தப் பயிற்சி, 14 தொழில்நுட்ப நிறுவனங்களின் நிர்வாகிகள், இராணுவ அதிகாரிகள், மற்றும் U.S. Cyber Command ஆகியோரை ஒரு கடுமையான சூழ்நிலைக்குள் ஒன்றிணைத்தது: 2027 Indo-Pacific நெருக்கடி, அமெரிக்க இராணுவ வலைப்பின்னல்களுக்கு எதிரான சைபர் போரில் மாறுகிறது.

முக்கிய முடிவு AI தனித்து சைபர் பாதுகாப்பைத் தீர்க்க முடியும் என்பதல்ல. எதிரிகள் மனிதர்களை விட வேகமாக விசாரிக்க, பயன்படுத்த, மற்றும் தந்திரங்களை மாற்றக்கூடிய, தழுவிக்கொள்ளும் AI-செயலூக்கப்பட்ட தாக்குதல் அமைப்புகளை பயன்படுத்தினால், மனித-வேக பாதுகாப்பு இனி போதாது என்பதே. அதனால் இராணுவ அதிகாரிகள் agentic AI குறித்து வெளிப்படையாகப் பேசத் தொடங்கியுள்ளனர், மேலும் எந்த சூழலில் இத்தகைய அமைப்புகளுக்கு அதிக தன்னாட்சி வழங்க வேண்டும் என்பதற்கான கொள்கை அமைப்பை உருவாக்கவும் அவர்கள் கவனம் செலுத்துகின்றனர்.

எச்சரிக்கையிலிருந்து பதிலுக்கு

Army Secretary Daniel Driscoll-ன் principal cyber advisor Brandon Pugh இந்தப் பிரச்சினையை risk appetite என்ற கோணத்தில் விளக்கியார். அமைதிக்காலத்தில் மனித கண்காணிப்பு இயல்பானதாக இருக்கலாம். போர் காலத்தில், குறிப்பாக தாக்குதல்களின் அலை நேரத்தில், மென்பொருள் முகவர்கள் செயல்பட அனுமதிக்க வேறுபட்ட எல்லை தேவைப்படலாம். இதுவே அதிகாரிகள் விவரித்திருக்கும் சாத்தியமான “risk continuum” கொள்கையின் பின்னணி; சூழ்நிலைக்கேற்ப மனித ஈடுபாட்டின் அளவு மாறும் அணுகுமுறை.

அந்த வேறுபாடு மிக முக்கியம். Department of Defense ஏற்கனவே தனது வலைப்பின்னல்களில் புகுந்தலை கண்டறிய AI-ஐ பயன்படுத்துகிறது. ஆனால் detection என்பது முதல் படி மட்டுமே. breach நடந்து கொண்டிருக்கும் போது AI அமைப்புகள் நேரடியாக பதிலடி நடவடிக்கைகளை எடுக்க அதிகாரம் பெற வேண்டுமா என்பதே கடினமான கேள்வி.

Pugh கூறியதாவது, இராணுவம் ஏற்கனவே detection-க்கு AI பயன்படுத்துவதில் வலுவாக உள்ளது, ஆனால் இப்போது அது agentic திறன்களை நோக்கி நகர வேண்டும்; அவை தீங்கான நடத்தை அடையாளம் காண்பதோடு மட்டுமல்லாமல் அதற்கு பதிலளிக்கவும் வேண்டும். அதனால் அமைப்புகளை தனிமைப்படுத்தல், இணைப்புகளை தடை செய்தல், countermeasures தொடங்குதல், அல்லது தாக்குதல் பரவுவதற்கு முன் அதைத் தடுப்பது போன்றவை செய்யப்படலாம்.

இது ஏன் அவசரமாகத் தெரிகிறது

Army Cyber Command-ஐ வழிநடத்தும் Lt. Gen. Christopher Eubank சவாலைக் கூர்மையாக விவரித்தார். agentic AI உலகில் பாதுகாப்பாளர்களிடம் “patch faster” என்று சொல்லுவது நடைமுறையல்ல என்று அவர் கூறினார். தாக்குதல் அமைப்புகள் பாதுகாப்பு மாற்றங்களுக்கு தொடர்ச்சியாகத் தழுவிக்கொண்டு மீண்டும் மீண்டும் தாக்கினால், மனித அணிகள் மட்டும் அதைக் கையாள முடியாது.

இந்தப் பயிற்சியின் சூழ்நிலை அதே கருத்தின் அடிப்படையில் அமைக்கப்பட்டது. ஒரு கற்பனையான எதிரி AI-ஐப் பயன்படுத்தி தொடர்ச்சியான சைபர் தாக்குதல்களைத் தொடங்கியது; அவை இராணுவத்தின் பாதுகாப்பு நிலைப்பாட்டிற்கு மனித பாதுகாப்பாளரை விட வேகமாகத் தழுவிக்கொண்டன என்று அதிகாரிகள் கூறினர். இந்த வகையான அழுத்தம் சாதாரண வலைப்பின்னல் பாதுகாப்பை விட வேறுபட்டது. இது சைபர் நடவடிக்கைகளை ஒரு வேகப் போட்டியாக மாற்றுகிறது, அங்கு தாமதமே ஒரு பலவீனம் ஆகிறது.

அந்த கோணத்தில் பார்த்தால், அதிக தன்னாட்சியில் இராணுவத்தின் ஆர்வம் தானியக்கத்தின் மீது உற்சாகத்தை விட, நேரச்சுருக்கத்திற்கான நடைமுறை பதிலாகவே தெரிகிறது. தாக்குதல் சுழற்சி வேகமாவதாக இருந்தால், பாதுகாப்பு சுழற்சியும் வேகமடைய வேண்டும்.

கோட்பாட்டை வடிவமைப்பதில் தொழில்துறையின் பங்கு

இந்தப் பயிற்சியின் குறிப்பிடத்தக்க அம்சங்களில் ஒன்று, இது குறுகிய, ஸ்கிரிப்ட் செய்யப்பட்ட தொழில்நுட்ப சிமுலேஷனாக நடத்தப்படவில்லை. Strategic Competitive Studies Project வடிவமைத்து ஒருங்கிணைத்த இந்தப் பயிற்சி, 14 தொழில்நுட்ப நிறுவனங்களின் நிர்வாகிகள் பரிந்துரைகள் வழங்கவும், இராணுவப் பங்கேற்பாளர்கள் அந்த யோசனைகளை கேள்வி கேட்கவும் semimar-style வடிவத்தை பயன்படுத்தியது. இது இராணுவம் வெறும் தயாரிப்புகளை வாங்குவது மட்டுமல்ல என்பதை குறிக்கிறது. வணிக AI சிந்தனை இராணுவ சைபர் கோட்பாட்டை எவ்வாறு வடிவமைக்க வேண்டும் என்பதைப் புரிந்துகொள்ள முயல்கிறது.

இது ஒரு முக்கிய வேறுபாடு. மையக் கேள்விகள் ஒரு கருவி வேலை செய்கிறதா என்பதுடன் மட்டும் முடிவடைவதில்லை; அதை யார் அங்கீகரிக்க முடியும், எந்த சூழலில், எந்த பாதுகாப்புகளுடன், மற்றும் தவறான நேர்மறைகள் அல்லது எதிர்பாராத விளைவுகளுக்கு எவ்வளவு சகிப்புத்தன்மை இருக்க வேண்டும் என்பதையும் உள்ளடக்குகின்றன. இவை பொறியியல் கேள்விகள் மட்டுமல்ல, கொள்கை மற்றும் கட்டளை தொடர்பான கேள்விகளும் கூட.

இராணுவம் அதைப் புரிந்துகொண்டிருப்பது போலத் தெரிகிறது. பயிற்சி உறுதியான பதில்களைத் தரவில்லை, அதையும் அதிகாரிகள் வெளிப்படையாகச் சொன்னார்கள். ஆனால் கடுமையான மோதல் சூழ்நிலையில் தன்னாட்சி பாதுகாப்பைப் பற்றி எப்படி சிந்திக்க வேண்டும் என்பதில் இராணுவத் தலைவர்களுக்கு வெளியக பார்வைகளை வழங்கியது.

கொள்கை பிரச்சினை தொழில்நுட்ப பிரச்சினையைவிட கடினமாக இருக்கலாம்

agentic சைபர் அமைப்புகளை உருவாக்குவது கடினம். அவற்றில் நம்பிக்கையை உருவாக்குவது இன்னும் கடினமாக இருக்கலாம். மிக மெதுவாகச் செயல்படும் பாதுகாப்பு AI பயனற்றது. மிக விரைவாக அல்லது மிக விரிவாகச் செயல்படும் AI நட்பு செயல்பாடுகளைத் தொந்தரவு செய்யலாம், சட்டபூர்வமான போக்குவரத்தை நிறுத்தலாம், அல்லது நெருக்கடியின் போது புதிய ஆபத்துகளை உருவாக்கலாம்.

அதனால் உருவாகிவரும் “risk continuum” என்ற கருத்து எந்த ஒரு குறிப்பிட்ட தயாரிப்பு அறிவிப்பை விட முக்கியமானதாக இருக்கலாம். இது தன்னாட்சி நிலைகள் நிலையானவை அல்ல, சூழ்நிலைக்கு ஏற்ப மாறும் எதிர்காலத்திற்காக இராணுவம் தயாராகிறது என்பதைச் சொல்கிறது. ஒரு வழக்கமான வலைப்பின்னல் சூழல் கடுமையான மனித கட்டுப்பாட்டை தேவைப்படுத்தலாம். ஒரு பெரிய போர்க்கால தாக்குதல் இயந்திர இயக்கப்படும் தாக்குதல்களை முந்திச் செல்லாமல் இருப்பதே மாற்றாக இருந்தால், மிகவும் தளர்ந்த கண்காணிப்பை நியாயப்படுத்தலாம்.

அத்தகைய கட்டமைப்பு எல்லா நெறிமுறை அல்லது செயல்பாட்டு கேள்விகளையும் தீர்க்காது, ஆனால் தொழில்நுட்ப திறன்களை கட்டளை அதிகாரம் மற்றும் பணித் தளத்துடன் இணைக்கும் ஒரு வழியை வழங்கும். நடைமுறையில், அதுவே agentic defense பெரிய அளவில் பயன்படுமா என்பதை நிர்ணயிக்கக்கூடும்.

அடுத்தது என்ன

இராணுவத்தின் அடுத்த படிகள் கருவி மேம்பாடு மற்றும் கொள்கை வடிவமைப்பு இரண்டையும் உள்ளடக்கியதாகத் தோன்றுகிறது. அதிகாரிகள் புதிய AI திறன்களை விரைவாக முன்னெடுக்கவும், அவற்றின் பயன்பாட்டை நிர்வகிக்கும் விதிமுறைகள் மீதும் வேலை செய்யவும் விரும்புகிறார்கள் என்று கூறினர். இந்த இரட்டை பாதை பொருத்தமானது, ஏனெனில் ஒன்றின்றி மற்றொன்று தோல்வியடையும். கோட்பாடின்றி தொழில்நுட்பம் குழப்பத்தை உருவாக்கும். திறமையான தொழில்நுட்பமின்றி கோட்பாடு பொருத்தமற்றதாகிவிடும்.

பரந்த நியமம் என்னவென்றால், இராணுவ சைபர் பாதுகாப்பு ஒரு புதிய கட்டத்திற்குள் நுழைகிறது. AI இனி ஆய்வாளர்களுக்கான உதவியாக மட்டும் கருதப்படவில்லை. மனித நேரம் போதாதபோது இயந்திர வேகத்தில் நடவடிக்கை எடுக்க வேண்டிய ஒரு செயல்பாட்டு நடிகராக இது கருதப்படுகிறது.

அந்த agents-க்கு எவ்வளவு சுதந்திரம் கொடுக்க வேண்டும் என்பதை இராணுவம் இன்னும் முடிவு செய்யவில்லை. ஆனால் இந்த வோர்கேமுக்குப் பிறகு, அந்த முடிவை எடுக்காமலிருப்பதே பெரிய ஆபத்தாக மாறக்கூடும் என்ற எதிர்காலத்திற்காக அது தெளிவாகத் தயாராகிறது.

இந்தக் கட்டுரை Breaking Defense செய்தியின்மீது அடிப்படையாக்கப்பட்டுள்ளது. மூலக் கட்டுரையைப் படிக்கவும்.