পেন্টাগনের এআই উদ্যোগ নতুন পর্যায়ে প্রবেশ করেছে
যুক্তরাষ্ট্রের প্রতিরক্ষা বিভাগ বলছে, শ্রেণিবদ্ধ সামরিক কম্পিউটার নেটওয়ার্কে কৃত্রিম বুদ্ধিমত্তা আনার জন্য তারা সাতটি প্রযুক্তি কোম্পানির সঙ্গে চুক্তি করেছে, যা ইঙ্গিত দেয় যে এআই কত দ্রুত কার্যকরী সিদ্ধান্ত গ্রহণের অংশ হয়ে উঠছে। সরবরাহ করা প্রতিবেদনে যেসব কোম্পানির নাম আছে, সেগুলো হলো Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection, এবং SpaceX.
পেন্টাগনের দাবি, লক্ষ্য হলো জটিল কার্যকরী পরিবেশে যুদ্ধযোদ্ধাদের সিদ্ধান্ত গ্রহণকে শক্তিশালী করা। এই বাক্যটি বিস্তৃত হলেও এর প্রভাব বাস্তব। এআই আর কেবল একটি পরীক্ষামূলক back-office টুল হিসেবে দেখা হচ্ছে না। এটি mission execution-এর আরও কাছাকাছি স্থাপন করা হচ্ছে, যেখানে গতি, ব্যাখ্যা, লজিস্টিক্স, এবং target-related workflow-সবকিছুই উচ্চ ঝুঁকির সঙ্গে জড়িত।
চুক্তিগুলো কী ইঙ্গিত দিচ্ছে
প্রতিরক্ষা বিভাগ বছরজুড়ে এআই গ্রহণের গতি বাড়িয়েছে, এবং এই চুক্তিগুলো সেই প্রবণতাকে আরও জোরদার করছে। সরবরাহ করা সূত্র অনুযায়ী, এআই লক্ষ্য শনাক্ত ও আঘাত করতে প্রয়োজনীয় সময় কমাতে সাহায্য করতে পারে, পাশাপাশি রক্ষণাবেক্ষণ ও supply chain সংগঠিত করতেও সহায়তা করতে পারে। এই মিশ্রণই দেখায় কেন প্রতিরক্ষা সংস্থাগুলো এতে আগ্রহী: সামরিক সুবিধা অনেক সময় নির্ভর করে শত্রুর চেয়ে দ্রুত তথ্য পরিচালনা করা এবং চাপের মধ্যে বড় প্রযুক্তিগত ব্যবস্থা সচল রাখার ওপর।
বাণিজ্যিক এআই প্রদানকারীদের শ্রেণিবদ্ধ পরিবেশে আনা একটি বাস্তবতারও প্রতিফলন। সবচেয়ে উন্নত এআই সক্ষমতার বড় অংশই বেসরকারি খাতে তৈরি হচ্ছে। সব প্রাসঙ্গিক টুল নিজে থেকে বানানোর বদলে, পেন্টাগন প্রধান model নির্মাতা, cloud provider, semiconductor firm, এবং system operator-দের procurement পরিসরে টেনে আনছে।
নৈতিক প্রশ্নগুলো এখনও অমীমাংসিত
একই সময়ে, প্রতিবেদনটি স্পষ্ট করে যে নীতিগত পরিবেশ এখনও অনিশ্চিত। সমালোচকদের আশঙ্কা, এআই আমেরিকানদের গোপনীয়তায় হস্তক্ষেপ করতে পারে অথবা যুদ্ধক্ষেত্রে যন্ত্রকে লক্ষ্য বেছে নিতে দিতে পারে। নতুন চুক্তিতে থাকা একটি কোম্পানি বলেছে, কিছু পরিস্থিতিতে মানব তত্ত্বাবধান প্রয়োজন, যা গুরুত্বপূর্ণ কারণ এটি দেখায় যে অটোমেশন কোথায় থামা উচিত, সে বিষয়ে এমনকি ঠিকাদারদের মধ্যেও পূর্ণ ঐকমত্য নেই।
এই উদ্বেগগুলো তাত্ত্বিক নয়। সূত্রটি বলছে, অন্যান্য সংঘাতে এআই-সক্ষম সামরিক অভিযান এই আশঙ্কা বাড়িয়েছে যে অসম্পূর্ণ তথ্যসহ ভঙ্গুর, দ্রুত পরিবর্তনশীল পরিস্থিতিতে এই সিস্টেম ব্যবহার হলে বেসামরিক ক্ষতি হতে পারে। এই কারণেই মানব বিবেচনা, operator প্রশিক্ষণ, এবং system reliability নিয়ে বিতর্ক কেন্দ্রীয় রয়েছে।
গতি বনাম নিয়ন্ত্রণ
সূত্রে উদ্ধৃত Georgetown University-এর Center for Security and Emerging Technology-এর Helen Toner এই মূল টানাপোড়েনটি ভালোভাবে ব্যাখ্যা করেন: আধুনিক যুদ্ধ increasingly কমান্ড সেন্টারে থাকা মানুষদের জটিল, দ্রুত পরিবর্তনশীল পরিস্থিতিতে কঠিন সিদ্ধান্ত নিতে বাধ্য করে। এআই তথ্য সংক্ষেপ করতে বা surveillance feed বিশ্লেষণ করতে সাহায্য করতে পারে, কিন্তু উপযোগিতা overtrust-এর ঝুঁকি দূর করে না।
এতে পেন্টাগনের জন্য একটি কঠিন বাস্তবায়ন সমস্যা তৈরি হয়। সামরিক বাহিনী দ্রুত deployment চায়, কারণ তারা এআইকে strategic advantage হিসেবে দেখে। কিন্তু দ্রুত rollout অপারেটর প্রশিক্ষণ, doctrine নির্ধারণ, এবং সিস্টেম ভুল, অনিশ্চিত, বা intended scope-এর বাইরে ব্যবহৃত হলে সুরক্ষা গড়ে তোলার ধীর কাজের সঙ্গে সংঘর্ষে যেতে পারে।
ব্যবহারিকভাবে কঠিন প্রশ্নটি হলো না, এআই ব্যবহার হবে কি না। সেটি ইতিমধ্যেই হচ্ছে। প্রশ্ন হলো, মানুষ কতটা discretion ধরে রাখে, output কীভাবে যাচাই হয়, এবং যেখানে ভুল অপরিবর্তনীয় হতে পারে, সেখানে model-generated পরামর্শকে commanders কীভাবে দেখেন।
Anthropic-এর অনুপস্থিতি চোখে পড়ে
ঠিকাদারদের তালিকাও এআই শিল্পের রাজনৈতিক ও নৈতিক ফাটলগুলো দেখায়। Anthropic বিশেষভাবে অনুপস্থিত। সরবরাহ করা প্রতিবেদন অনুযায়ী, Trump প্রশাসনের সঙ্গে কোম্পানির বিরোধ সামরিক ব্যবহারের নিরাপত্তা ও নৈতিক উদ্বেগকে কেন্দ্র করে ছিল। কোম্পানিটি চেয়েছিল আশ্বাস, যাতে তাদের প্রযুক্তি পুরোপুরি স্বয়ংক্রিয় অস্ত্র বা আমেরিকানদের নজরদারিতে ব্যবহার না হয়, আর Defense Secretary Pete Hegseth জোর দিয়ে বলেন, সামরিক বাহিনীর উচিত যেকোনো বৈধ উদ্দেশ্যে সিস্টেম ব্যবহারের বিকল্প বজায় রাখা।
এই বিরোধ গুরুত্বপূর্ণ, কারণ এটি দেখায় বিস্তৃত প্রতিরক্ষা চুক্তিতে ঢুকতে রাজি কোম্পানি এবং আরও সংকীর্ণ শর্ত বসাতে চাওয়া কোম্পানির মধ্যে গভীর বিভাজন। এআই সিস্টেম যত বেশি সক্ষম হবে, সেই চুক্তিগত সীমারেখাগুলো ততই সবচেয়ে গুরুত্বপূর্ণ governance tools-এর একটিতে পরিণত হতে পারে।
- সাতটি কোম্পানি শ্রেণিবদ্ধ পেন্টাগন নেটওয়ার্কের জন্য এআই সক্ষমতা দেবে।
- জটিল কার্যকরী পরিবেশে সিদ্ধান্ত গ্রহণে সহায়তার জন্য এই টুলগুলো নকশা করা হয়েছে বলে কর্মকর্তারা জানান।
- স্বায়ত্তশাসন, গোপনীয়তা, বেসামরিক ক্ষতি, এবং অপারেটরের অতিরিক্ত নির্ভরতা নিয়ে উদ্বেগ রয়ে গেছে।
- Anthropic-এর অনুপস্থিতি সামরিক guardrail নিয়ে অমীমাংসিত শিল্প-দ্বন্দ্বকে সামনে আনে।
প্রয়োগিক এআইয়ের জন্য এক নির্ণায়ক পরীক্ষা
এই চুক্তিগুলো গুরুত্বপূর্ণ, কারণ এগুলো এআইকে ভোক্তা অ্যাপ্লিকেশন ও productivity software-এর বাইরে এমন এক পরিসরে নিয়ে যায় যেখানে যেকোনো প্রযুক্তির প্রবেশ সবচেয়ে তাৎপর্যপূর্ণ হতে পারে। সামরিক সংস্থাগুলো গতি, স্কেল, এবং তথ্যগত সুবিধাকে মূল্য দেয়। এআই এই তিনটিই প্রতিশ্রুতি দেয়। কিন্তু একই সঙ্গে এটি অস্বচ্ছতা, ভঙ্গুরতা, এবং ভুল হলেও আত্মবিশ্বাসী দেখাতে পারে এমন সিস্টেমের ওপর নির্ভর করার প্রলোভনও আনে।
তাই পেন্টাগনের সর্বশেষ চুক্তিগুলো কেবল procurement news নয়। এগুলো দেখায়, ব্যর্থতার মূল্য যখন দক্ষতার ক্ষতিতে নয়, বরং জীবন, জবাবদিহি, এবং কৌশলগত স্থিতিশীলতায় মাপা হয়, তখন উন্নত এআই কীভাবে শাসিত হবে, তার একটি প্রাথমিক পরীক্ষা।
এই নিবন্ধটি Fast Company-এর প্রতিবেদনের ভিত্তিতে। মূল নিবন্ধ পড়ুন.
