তত্ত্ব থেকে নীতির দিকে এগোনো বিতর্ক

MIT Technology Review-এর 17 এপ্রিলের The Download সংস্করণ এমন একটি বিষয়কে কেন্দ্র করে ছিল যা সরকার ও প্রযুক্তি কোম্পানিগুলোর জন্য এড়িয়ে যাওয়া ক্রমেই কঠিন হয়ে উঠছে: AI সিস্টেমগুলো গুরুত্বপূর্ণ সিদ্ধান্তের আরও গভীরে ঢুকে যাচ্ছে, অথচ তদারকি নিয়ে জনসাধারণের ভাষা তার সঙ্গে তাল মেলাতে পারছে না। নিউজলেটার একটি op-ed-কে একসঙ্গে জুড়েছিল, যেখানে বলা হয়েছিল AI যুদ্ধে “humans in the loop” হয়তো ভ্রান্ত সান্ত্বনা হতে পারে, এবং এমন রিপোর্টিংকে, যেখানে White House Anthropic-এর নতুন Mythos model-এ অ্যাক্সেস চায়, যদিও কোম্পানিটি নিরাপত্তার ভিত্তিতে সেটিকে জনসমক্ষে প্রকাশ করেনি।

দুটো বিষয় একসঙ্গে ধরলে আরও অস্বস্তিকর এক বাস্তবতা দেখা যায়। একদিকে প্রশ্ন উঠছে, সামরিক AI-তে মানুষের নিয়ন্ত্রণ আদৌ বাস্তব নাকি অধিকাংশই প্রতীকী। অন্যদিকে ইঙ্গিত মিলছে যে frontier systems ব্যবহারে সরকারগুলো চাপ দিতে পারে, এমনকি যেসব কোম্পানি সেগুলো তৈরি করছে তারা অসাধারণ সতর্কতা দেখালেও। কোনো একটি বিষয় একা নীতিগত বিতর্ক মেটায় না, কিন্তু একত্রে তারা দেখায় যে আলোচনা কত দ্রুত বিমূর্ত নীতিগত স্তর ছাড়িয়ে গেছে।

“human in the loop” কথাটির সমস্যা

নিউজলেটার অনুযায়ী, AI ইতিমধ্যেই বাস্তব যুদ্ধকে প্রভাবিত করছে। এই সত্যটি Uri Maoz-এর featured op-ed-এর যুক্তিকে ভিত্তি দেয়, যেখানে বলা হয়েছে humans-কে “in the loop” রাখা নিয়ে আশ্বাসদায়ক ভাষা গভীর সমস্যাটি থেকে মনোযোগ সরিয়ে দিতে পারে। Pentagon guidelines অনুযায়ী, মানব তদারকির কাজ হওয়া উচিত জবাবদিহি, প্রেক্ষাপট, এবং নিরাপত্তা নিশ্চিত করা। কিন্তু op-ed বলছে, আসল ঝুঁকি শুধু এই নয় যে মেশিন তদারকি ছাড়া কাজ করবে; বরং যারা তদারকি করছে তারাই বুঝতে পারবে না তারা যে সিস্টেম পর্যবেক্ষণ করছে, সেটা আসলে কী করছে বা “ভাবছে”।

এই সমালোচনাটি গুরুত্বপূর্ণ, কারণ “human in the loop” সামরিক ব্যবস্থায় autonomy নিয়ে আশঙ্কা কমানোর ডিফল্ট নীতিগত শব্দবন্ধ হয়ে উঠেছে। শব্দটি নিয়ন্ত্রণ, পাল্টে নেওয়ার ক্ষমতা, এবং অর্থপূর্ণ বিচারবোধের ইঙ্গিত দেয়। কিন্তু মানবের ভূমিকা যদি এমন output দেখার মধ্যে সীমিত হয়ে যায়, যা ভেতরের reasoning অস্বচ্ছ সিস্টেম তৈরি করেছে, তাহলে একজন মানুষের উপস্থিতি নিরাপত্তা নিশ্চিত করবে এমন গ্যারান্টি থাকে না।

op-ed বলছে না যে মানুষের ভূমিকা অপ্রয়োজনীয়। বরং বলছে, যখন AI সিস্টেমগুলো চাপের মধ্যে বোঝা কঠিন, তখন বর্তমান তদারকির ধরন যথেষ্ট নাও হতে পারে। এটি সাধারণ automation fears-এর চেয়ে বেশি কঠোর যুক্তি। এতে বলা হচ্ছে, নীতিগত চ্যালেঞ্জ কেবল শৃঙ্খলের শেষে একটি মানব button-push রাখা নয়। বরং এমন সুরক্ষা ব্যবস্থা তৈরি করা, যেখানে supervising মানুষটি model কীভাবে তার সুপারিশে পৌঁছাল, তা স্পষ্টভাবে দেখতে পান না, বা যেখানে operational tempo পর্যালোচনার জন্য সময় কমিয়ে দেয়।

MIT Technology Review-এর সারাংশে বলা হয়েছে, বিজ্ঞান একটি পথ দেখাতে পারে এবং AI warfare-এর জন্য নতুন safeguards দরকার। সংক্ষিপ্ত হলেও এই জোরটি গুরুত্বপূর্ণ। বিতর্ক এখন আর কেবল এই প্রশ্নে সীমাবদ্ধ নয় যে মানুষের involvement থাকবে কি না। এখন প্রশ্ন হচ্ছে, কী ধরনের involvement-কে বাস্তব নিয়ন্ত্রণের জন্য যথেষ্ট অর্থপূর্ণ ধরা যায়।

সরকারি চাহিদা model restraint-এর সঙ্গে সংঘর্ষে

নিউজলেটার আরও জানিয়েছে যে Anthropic-এর বিরুদ্ধে আগের পদক্ষেপ সত্ত্বেও White House তার নতুন Mythos model-এ অ্যাক্সেস চায়। সংক্ষিপ্ত প্রতিবেদনে বলা হয়েছে Trump কর্মকর্তারা সেই model নিয়ে আলোচনা করছেন, যদিও Anthropic সেটিকে জনসমক্ষে প্রকাশের জন্য অত্যন্ত বিপজ্জনক মনে করেছিল। এতে আরও বলা হয়েছে, কোম্পানিটি সম্প্রতি আরেকটি model প্রকাশ করেছে, যেটিকে তারা Mythos-এর তুলনায় কম ঝুঁকিপূর্ণ বলে বর্ণনা করেছে।

এই বিবরণগুলো public-release standards এবং সরকারি চাহিদার মধ্যে বাড়তে থাকা বিভাজনকে নির্দেশ করে। যদি কোনো কোম্পানি risk profile-এর কারণে একটি system আটকে রাখে, কিন্তু কর্মকর্তারা তবুও সেটি পেতে চান, তাহলে “জনসাধারণের ব্যবহারের জন্য অত্যন্ত বিপজ্জনক” এবং “রাষ্ট্রীয় ব্যবহারের জন্য গ্রহণযোগ্য” এই সীমারেখা একটি জীবন্ত নীতিগত প্রশ্ন হয়ে দাঁড়ায়। এটি শুধু procurement-এর প্রশ্ন নয়, জবাবদিহিরও প্রশ্ন। সরকারগুলো কৌশলগত সুবিধার জন্য আরও সক্ষম models চাইতে পারে, কিন্তু সেই সক্ষমতা misuse, failure modes, বা escalation সম্পর্কে অনিশ্চয়তাও বাড়াতে পারে।

নিউজলেটার Anthropic ও Pentagon-এর বিরোধের পূর্ণ আইনি বা রাজনৈতিক প্রেক্ষাপট দেয় না, তবে সেটিকে একটি বড় প্যাটার্নের মধ্যে স্থাপন করে: frontier models এখন রাষ্ট্রের আগ্রহের যন্ত্রে পরিণত হচ্ছে। একবার তা হলে, model safety নিয়ে যুক্তি কেবল consumer releases বা enterprise tools-এ সীমাবদ্ধ থাকে না। সেগুলো national-security সিদ্ধান্তের অংশ হয়ে যায়।

এই নিউজলেটার স্ন্যাপশট কী দেখায়

  • MIT Technology Review ইঙ্গিত দিয়েছে যে AI যুদ্ধে মানব তদারকি, নীতিনির্ধারকেরা যতটা ভাবেন, ততটা অর্থপূর্ণ নাও হতে পারে।
  • op-ed বলছে, মূল ঝুঁকি শুধু তদারকি ছাড়া autonomy নয়, বরং বোঝাপড়া ছাড়া তদারকি।
  • নিউজলেটার আরও জানায়, White House Anthropic-এর Mythos model চায়, যদিও নিরাপত্তা নিয়ে উদ্বেগের কারণে কোম্পানি সেটিকে জনসমক্ষে আনা থেকে বিরত ছিল।
  • Anthropic Mythos-এর তুলনায় কম ঝুঁকিপূর্ণ বলে বর্ণনা করা আরেকটি model প্রকাশ করেছে।

এই যুক্ত ঘটনাগুলোতে একটি বড় ধারা স্পষ্ট। AI governance বছর ধরে alignment, guardrails, এবং human supervision নিয়ে আশ্বাসমূলক ভাষা তৈরি করেছে। কিন্তু বাস্তব deploy­ment এবং রাষ্ট্রের চাহিদা পরীক্ষা করছে এই ধারণাগুলো সত্যিই কার্যকর নাকি শুধু rhetoric। যদি কোনো সামরিক command chain যে সিস্টেম ব্যবহার করছে, সেটিই পুরোপুরি বুঝতে না পারে, তাহলে মানব review official doctrine-এ যতটা বলা হয়, তার চেয়ে পাতলা হতে পারে। আর সরকার যদি corporate caution সত্ত্বেও আরও শক্তিশালী models পেতে চায়, তাহলে safety standards গ্রাহক কার ওপর নির্ভর করে বদলে যেতে পারে।

এই কারণেই The Download-এর এই সংস্করণ কেবল একটি newsletter roundup-এর চেয়ে বেশি। এটি গুরুত্বের একটি পরিবর্তন নথিভুক্ত করে। মূল প্রশ্ন আর শুধু এই নয় যে উন্নত AI যুদ্ধ ও statecraft-এ ব্যবহৃত হবে কি না। সেটি ইতিমধ্যেই হচ্ছে। আরও কঠিন প্রশ্ন হলো, বর্তমান তদারকি ভাষা, procurement norms, এবং safety boundaries কি সেই বাস্তবতার জন্য যথেষ্ট শক্তিশালী। MIT Technology Review-এর সারাংশ অন্তত এইটুকু বলছে, উত্তরটি এখনো অনিশ্চিত।

এই নিবন্ধটি MIT Technology Review-এর প্রতিবেদনের ভিত্তিতে লেখা। মূল নিবন্ধ পড়ুন.

Originally published on technologyreview.com