স্বায়ত্তশাসিত সাইবার প্রতিরক্ষা কতদূর যাবে, তা পরীক্ষা করছে সেনাবাহিনী

বেসরকারি খাতের প্রযুক্তি নেতাদের সঙ্গে সাম্প্রতিক ওয়ারগেমের পর, ভবিষ্যৎ আক্রমণ কীভাবে মানব অপারেটরদের চাপে ফেলতে পারে তা খতিয়ে দেখে, সাইবার প্রতিরক্ষায় AI-এর আরও আগ্রাসী ভূমিকা দ্রুত পর্যালোচনা করছে মার্কিন সেনাবাহিনী। AI Table Top Exercise 2.0 নামে পরিচিত এই অনুশীলনে ১৪টি প্রযুক্তি কোম্পানির নির্বাহী, সেনা কর্মকর্তা, এবং U.S. Cyber Command এক কঠোর পরিস্থিতির চারপাশে একত্রিত হন: ২০২৭ সালের Indo-Pacific সংকট, যা আমেরিকান সামরিক নেটওয়ার্কের বিরুদ্ধে সাইবার যুদ্ধে রূপ নিচ্ছে।

মূল সিদ্ধান্ত ছিল না যে AI একাই সাইবার প্রতিরক্ষা সমাধান করতে পারে। বরং সিদ্ধান্ত ছিল, যদি প্রতিপক্ষ অভিযোজিত, AI-সক্ষম আক্রমণ ব্যবস্থাগুলো ব্যবহার করে যা মানুষের চেয়ে দ্রুত probe, exploit, এবং tactic বদলাতে পারে, তাহলে human-speed defense আর যথেষ্ট নাও হতে পারে। সেই কারণেই সেনা কর্মকর্তারা agentic AI নিয়ে আরও খোলামেলা কথা বলছেন এবং কোন পরিস্থিতিতে এসব ব্যবস্থাকে বেশি স্বায়ত্তশাসন দেওয়া উচিত তা নির্ধারণের জন্য একটি নীতিগত কাঠামো তৈরির কথা ভাবছেন।

সতর্কতা থেকে প্রতিক্রিয়ায়

Army Secretary Daniel Driscoll-এর principal cyber advisor Brandon Pugh বিষয়টিকে risk appetite-এর ভাষায় ব্যাখ্যা করেন। শান্তিকালে মানব তদারকি ডিফল্ট থাকতে পারে। যুদ্ধকালে, বিশেষ করে আক্রমণের ঢেউ চলাকালীন, সফটওয়্যার এজেন্টকে পদক্ষেপ নেওয়ার অনুমতি দিতে ভিন্ন threshold লাগতে পারে। এটাই কর্মকর্তাদের বর্ণিত সম্ভাব্য “risk continuum” নীতির যুক্তি, যা পরিস্থিতিভেদে মানব সম্পৃক্ততার মাত্রা বদলাবে।

এই পার্থক্যটি গুরুত্বপূর্ণ। Department of Defense ইতিমধ্যেই তার নেটওয়ার্কে অনুপ্রবেশ শনাক্ত করতে AI ব্যবহার করছে। তবে detection কেবল প্রথম ধাপ। কঠিন প্রশ্ন হলো, breach চলাকালীন AI সিস্টেমগুলোকে কি সরাসরি response action নেওয়ার ক্ষমতা দেওয়া উচিত।

Pugh বলেন, সেনাবাহিনী detection-এর জন্য AI ব্যবহারে ইতিমধ্যেই শক্তিশালী, কিন্তু এখন তাকে agentic ক্ষমতার দিকে এগোতে হবে, যা কেবল ক্ষতিকর আচরণ শনাক্ত করবে না, সেগুলোর জবাবও দেবে। এর মধ্যে থাকতে পারে সিস্টেম আলাদা করা, সংযোগ ব্লক করা, countermeasures শুরু করা, বা আক্রমণ ছড়িয়ে পড়ার আগে তা থামানো।

সেনাবাহিনীর কাছে এটি কেন জরুরি মনে হচ্ছে

Army Cyber Command-এর নেতৃত্বদানকারী Lt. Gen. Christopher Eubank সমস্যাটি সরাসরি বর্ণনা করেন। agentic AI-এর জগতে প্রতিরক্ষকদের “patch faster” বলা অবাস্তব, তিনি বলেন। যদি আক্রমণাত্মক সিস্টেমগুলো প্রতিরক্ষার পরিবর্তনের সঙ্গে ক্রমাগত মানিয়ে নিয়ে আক্রমণ চালায়, তবে মানব দলগুলো একাই সেই গতি ধরে রাখতে পারবে না।

অনুশীলনের দৃশ্যপটটি এই ধারণার ওপরই তৈরি করা হয়েছিল। কর্মকর্তারা জানান, কাল্পনিক প্রতিপক্ষ AI ব্যবহার করে একের পর এক cyberattack salvos চালিয়েছিল, যা সেনাবাহিনীর defensive posture-এর সঙ্গে মানুষের তুলনায় দ্রুত মানিয়ে নিচ্ছিল। এই ধরনের চাপ সাধারণ নেটওয়ার্ক প্রতিরক্ষা থেকে আলাদা। এটি সাইবার অপারেশনকে একটি গতির প্রতিযোগিতায় পরিণত করে, যেখানে দ্বিধাই দুর্বলতা হয়ে ওঠে।

এইভাবে দেখলে, সেনাবাহিনীর বেশি স্বায়ত্তশাসনের প্রতি আগ্রহ automation-এর প্রতি উচ্ছ্বাসের চেয়ে time compression-এর একটি বাস্তবসম্মত প্রতিক্রিয়া। যদি আক্রমণের লুপ দ্রুততর হয়, তবে প্রতিরক্ষা লুপকেও দ্রুততর হতে হবে।

ডকট্রিন গঠনে শিল্পের ভূমিকা

এই অনুশীলনের একটি উল্লেখযোগ্য দিক ছিল, এটি সরু, স্ক্রিপ্টেড টেকনিক্যাল সিমুলেশন হিসেবে চালানো হয়নি। Strategic Competitive Studies Project দ্বারা ডিজাইন ও পরিচালিত এই অনুশীলন seminar-style format ব্যবহার করে, যেখানে ১৪টি প্রযুক্তি প্রতিষ্ঠানের নির্বাহীরা সুপারিশ দেন এবং সামরিক অংশগ্রহণকারীরা সেই ধারণাগুলো যাচাই করেন। এই ফরম্যাট ইঙ্গিত দেয় যে সেনাবাহিনী শুধু পণ্য কিনছে না। তারা বুঝতে চাইছে, বাণিজ্যিক AI ভাবনা কীভাবে সামরিক সাইবার ডকট্রিনকে প্রভাবিত করা উচিত।

এটি একটি গুরুত্বপূর্ণ পার্থক্য। মূল প্রশ্ন কেবল কোনো টুল কাজ করে কি না, তা নয়; কে সেটিকে অনুমোদন করতে পারবে, কোন পরিস্থিতিতে, কী সুরক্ষার সঙ্গে, এবং false positives বা unintended consequences-এর প্রতি কতটা সহনশীলতা থাকবে। এগুলো যেমন নীতির প্রশ্ন, তেমনি প্রকৌশলেরও।

সেনাবাহিনী তা বুঝতে পারছে বলেই মনে হয়। অনুশীলন থেকে চূড়ান্ত উত্তর পাওয়া যায়নি, এবং কর্মকর্তারা সে বিষয়ে খোলামেলা ছিলেন। তবে এটি সামরিক নেতাদের একটি সংঘাত পরিস্থিতিতে স্বায়ত্তশাসিত প্রতিরক্ষা নিয়ে কীভাবে ভাবতে হবে, সে সম্পর্কে বাইরের দৃষ্টিভঙ্গি দিয়েছে, যেখানে দেরি বিপর্যয়কর হতে পারে।

নীতির সমস্যা প্রযুক্তির সমস্যার চেয়ে কঠিন হতে পারে

agentic cyber systems তৈরি করা কঠিন। সেগুলোতে আস্থা তৈরি করা আরও কঠিন হতে পারে। খুব ধীরগতির defensive AI অকার্যকর। খুব দ্রুত বা খুব বিস্তৃতভাবে কাজ করা AI বন্ধুত্বপূর্ণ অপারেশন ব্যাহত করতে পারে, বৈধ ট্র্যাফিক বন্ধ করে দিতে পারে, বা সংকটের সময় নতুন ঝুঁকি তৈরি করতে পারে।

এই কারণেই উদীয়মান “risk continuum” ধারণাটি কোনো নির্দিষ্ট পণ্যের ঘোষণার চেয়ে বেশি গুরুত্বপূর্ণ হতে পারে। এটি ইঙ্গিত দেয় যে স্বায়ত্তশাসনের স্তর স্থির নয়, বরং পরিস্থিতিনির্ভর হবে। একটি সাধারণ নেটওয়ার্ক পরিবেশ কঠোর মানব নিয়ন্ত্রণ চাইতে পারে। একটি বড় যুদ্ধকালীন আক্রমণ, যদি বিকল্প হয় machine-driven attacks-এর কাছে পিছিয়ে পড়া, তাহলে অনেক ঢিলেঢালা তদারকির ন্যায্যতা দিতে পারে।

এমন একটি কাঠামো সব নৈতিক বা কার্যকরী প্রশ্নের সমাধান করবে না, কিন্তু প্রযুক্তিগত ক্ষমতাকে command authority এবং mission context-এর সঙ্গে যুক্ত করার উপায় দেবে। বাস্তবে, সেটিই নির্ধারণ করতে পারে agentic defense বড় পরিসরে ব্যবহারযোগ্য কি না।

এরপর কী

সেনাবাহিনীর পরবর্তী পদক্ষেপে tool development এবং policy design, দুটোই থাকতে পারে। কর্মকর্তারা বলেছেন, তারা নতুন AI ক্ষমতাগুলো দ্রুত এগিয়ে নিতে চান, একই সঙ্গে সেগুলোর ব্যবহার নিয়ন্ত্রণ করবে এমন নিয়মও তৈরি করতে চান। এই দ্বিমুখী পথ যুক্তিসঙ্গত, কারণ একটির অভাবে অন্যটি ব্যর্থ হবে। doctrine ছাড়া প্রযুক্তি বিশৃঙ্খলা আনে। সক্ষম প্রযুক্তি ছাড়া doctrine অপ্রাসঙ্গিক হয়ে যায়।

বৃহত্তর ইঙ্গিত হলো, সামরিক সাইবার প্রতিরক্ষা একটি নতুন ধাপে প্রবেশ করছে। AI-কে আর কেবল বিশ্লেষকদের সহায়ক হিসেবে দেখা হচ্ছে না। human timing যথেষ্ট না হলে machine speed-এ কাজ করতে হতে পারে এমন একটি operational actor হিসেবে একে বিবেচনা করা হচ্ছে।

ওই agents-কে কতটা ছাড় দেওয়া হবে, সেনাবাহিনী এখনও তা ঠিক করেনি। কিন্তু এই ওয়ারগেমের পর, সেটি না করার ঝুঁকিই যে বড় ঝুঁকি হয়ে উঠতে পারে, সেই ভবিষ্যতের জন্য তারা স্পষ্টতই প্রস্তুতি নিচ্ছে।

এই নিবন্ধটি Breaking Defense-এর প্রতিবেদনের ওপর ভিত্তি করে। মূল নিবন্ধ পড়ুন.