আলোচনা অনুমোদনের ধাপ থেকে নকশাগত স্থাপত্যের দিকে সরে যাচ্ছে
সামরিক সংস্থাগুলো আরও বেশি স্বায়ত্তশাসিত এবং ক্রমশ agentic সিস্টেমে বিনিয়োগ বাড়াচ্ছে বলে, মানব নিয়ন্ত্রণের প্রশ্নটি এখন আর স্লোগানের বিষয় নয়; এটি সিস্টেম ডিজাইনের বিষয় হয়ে উঠছে। Breaking Defense-এ বর্ণিত একটি নতুন প্রস্তাব বলছে, “human in the loop” কথাটির প্রচলিত ব্যাখ্যা যথেষ্ট নয়, যদি মেশিন আগেই যুদ্ধক্ষেত্রের চিত্র তৈরি করে ফেলে, উপলব্ধ বিকল্পগুলো সংকুচিত করে দেয়, এবং চূড়ান্ত অনুমোদনের অনুরোধ আসার আগেই মানুষের পছন্দ সীমিত করে ফেলে।
লেখকরা এই ধারণার নাম দিয়েছেন “Synthesized Command & Control।” তাদের মূল বক্তব্য হলো, অর্থবহ মানব নিয়ন্ত্রণ সিদ্ধান্ত নেওয়ার প্রক্রিয়ার অনেক আগেই অন্তর্ভুক্ত করা উচিত। AI-সক্ষম একটি শৃঙ্খলের শেষ প্রান্তে একজনকে হামলা অনুমোদন বা বাতিল করতে বলার বদলে, তারা বলছেন, কমান্ডারের পছন্দ ও অপারেশনাল উদ্দেশ্য শুরু থেকেই পদ্ধতিগতভাবে সফটওয়্যারের মধ্যে গড়ে তোলা উচিত।
শেষ অনুমোদন কেন খুব দেরি হয়ে যেতে পারে
স্ট্যান্ডার্ড মডেল নিয়ে নিবন্ধটির সমালোচনা পরিষ্কার। যদি কোনো AI সিস্টেমকে force positioning, target prioritization, বা recommendation framing-এর মতো upstream সিদ্ধান্ত machine speed-এ নিতে দেওয়া হয়, তবে শেষের দিকে মানুষের ভূমিকা দেখতে যতটা লাগে, আসলে তার চেয়ে অনেক সংকীর্ণ হতে পারে। একজন কমান্ডার তাত্ত্বিকভাবে এখনো পদক্ষেপ অনুমোদন করতে পারেন, কিন্তু তা হবে তখনই, যখন স্বয়ংক্রিয় সিস্টেম ইতিমধ্যে সিদ্ধান্তের শর্তগুলো তৈরি করে ফেলেছে।
মানব-যন্ত্র teamwork-এ এটাই মূল টানাপোড়েন। প্রতিটি ধাপে মানুষের অনুমোদন বাধ্যতামূলক করলে AI-র গতি-সুবিধা হারিয়ে যেতে পারে। আর শুধু শেষে অনুমোদন চাইলে, মানুষ formal authority ধরে রাখলেও বৃহত্তর অপারেশনাল logic-এর ওপর বাস্তব প্রভাব কমে যেতে পারে।
প্রস্তাব: শুধু অনুমতি নয়, উদ্দেশ্য encode করা
প্রস্তাবিত সমাধান হলো মানব পছন্দকে আগেভাগেই encode করা। এই মডেলে, commander’s intent-এর মতো ধারণাগুলো algorithm-এর ভেতরেই constraint এবং guidance-এ রূপান্তরিত হবে। উদ্দেশ্য কেবল এমন একটি checkpoint তৈরি করা নয় যেখানে মানুষ মেশিনকে থামাতে পারে, বরং নিশ্চিত করা যে মেশিনের option-generation process শুরু থেকেই মানব বিচারের দ্বারা সীমাবদ্ধ থাকে।
এই পদ্ধতি AI governance নিয়ে বৃহত্তর পরিবর্তনের ইঙ্গিত দেয়। প্রশ্ন শুধু এটুকু নয় যে একটি সিস্টেমকে মাঝপথে থামানো যায় কি না। প্রশ্ন হলো, সিস্টেমের reasoning space কতটা আগে থেকেই সঠিকভাবে align করা হয়েছে, যাতে তার গতি ও পরিসর মানব কর্তৃত্বের সঙ্গে সামঞ্জস্যপূর্ণ থাকে।
সামরিক AI শ্রেণিবিভাগে এখনও স্পষ্টতা নেই
বর্তমান defense AI landscape-এর একটি ধারণাগত সমস্যার দিকেও নিবন্ধটি ইঙ্গিত করে: automatic, semi-autonomous, autonomous, এবং agentic autonomous শব্দগুলোর অর্থ নিয়ে স্থায়ী অস্পষ্টতা। এই সংজ্ঞাগত অস্পষ্টতা procurement, oversight, এবং doctrine-কে জটিল করে তোলে। বিভিন্ন পক্ষ যদি একই label-এ ভিন্ন অর্থ বোঝে, তবে control, accountability, এবং গ্রহণযোগ্য ব্যবহার নিয়ে বিতর্ক প্রযুক্তিগত প্রশ্নে পৌঁছানোর আগেই বিভ্রান্তিকর হয়ে যেতে পারে।
এটি এমন একটি প্রেক্ষাপটে গুরুত্বপূর্ণ যেখানে stake এবং বিনিয়োগ দুটোই বড়। নিবন্ধে Defense Autonomous Warfare Group-এর জন্য প্রায় $55 billion funding request-এর কথা বলা হয়েছে এবং US defense leadership-এর উচ্চপর্যায়ের মনোযোগের কথাও উল্লেখ করা হয়েছে। ব্যয় ও রাজনৈতিক মনোযোগ বাড়ার সঙ্গে সঙ্গে, operational category-গুলো নিয়ে অস্পষ্টতা কেবল শব্দগত সমস্যা থাকে না। তা governance risk হয়ে দাঁড়ায়।
চূড়ান্ত সমাধান নয়, একটি কাঠামো
এই প্রস্তাব সব সমস্যার সমাধান করে না। মানব উদ্দেশ্যকে code-এ রূপান্তর করা কঠিন, আর command intent নিজেই অস্পষ্ট, বিতর্কিত, বা পরিবর্তিত battlefield conditions-এর অধীন হতে পারে। তবু এই যুক্তি সরল “human approval” বর্ণনার একটি বাস্তব দুর্বলতা তুলে ধরে। শেষ পর্যায়ের approval button আনুষ্ঠানিক শর্ত পূরণ করতে পারে, কিন্তু substantive control বজায় রাখতে ব্যর্থ হতে পারে।
এই কারণেই এই বিতর্ক সামরিক পরিসরের বাইরেও গুরুত্বপূর্ণ। এটি AI-সংক্রান্ত একটি বৃহত্তর প্রশ্নের সঙ্গে যুক্ত, যা বহু ক্ষেত্রে দেখা যায়: system workflow-এর কোন পর্যায়ে মানব মূল্যবোধ আসলেই ফলাফলকে প্রভাবিত করে? লেখকদের উত্তর হলো, উচ্চগতির সংঘাতপূর্ণ পরিবেশে শেষ পর্যন্ত অপেক্ষা করা যথেষ্ট নয়। সামরিক AI যদি মানব বিচারে bounded থাকতে হয়, তবে সেই বিচারকে সিস্টেম কাজ শুরু করার আগেই সিস্টেমের মধ্যে ডিজাইন করতে হবে।
এই নিবন্ধটি Breaking Defense-এর প্রতিবেদনের ভিত্তিতে লেখা। মূল নিবন্ধটি পড়ুন.
Originally published on breakingdefense.com

