নিরাপত্তা পরীক্ষাকে বিদ্রূপ করা থেকে সেগুলো আবার গড়ে তোলা পর্যন্ত
ফ্রন্টিয়ার AI তদারকি নিয়ে ট্রাম্প প্রশাসন তার অবস্থান তীব্রভাবে বদলেছে। উন্নত মডেলগুলোকে প্রকাশের আগে ও পরে সরকারি নিরাপত্তা পরীক্ষার আওতায় আনার জন্য Google DeepMind, Microsoft এবং xAI-এর সঙ্গে নতুন চুক্তি স্বাক্ষর করেছে। এই পরিবর্তন শুধু কী করছে তার জন্য নয়, প্রশাসনের আগের অবস্থান থেকে কতটা সরাসরি সরে এসেছে তার জন্যও গুরুত্বপূর্ণ।
Ars Technica অনুযায়ী, প্রেসিডেন্ট ডোনাল্ড ট্রাম্প আগে বাইডেন যুগের স্বেচ্ছামূলক AI নিরাপত্তা পরীক্ষাকে উদ্ভাবন-বিরোধী নিয়ন্ত্রক বাড়াবাড়ি বলে খারিজ করেছিলেন। দায়িত্ব নেওয়ার পরই প্রশাসন US AI Safety Institute-এর নাম বদলে Center for AI Standards and Innovation, বা CAISI, করে “safety” শব্দটি শিরোনাম থেকে সরিয়ে দেয়, যা সূত্রের ভাষায় জো বাইডেনের প্রতি একটি ইঙ্গিতপূর্ণ খোঁচা।
এখন সেই একই প্রশাসন যে নীতিগত কাঠামোকে একসময় উপহাস করেছিল, তারই একটি সংস্করণ পুনরুদ্ধার করছে।
Mythos-এর প্রভাব
দৃশ্যমান মোড়টি ছিল Anthropic-এর সর্বশেষ Claude Mythos মডেল প্রকাশ না করার সিদ্ধান্ত। Ars Technica জানায়, কোম্পানির মতে মডেলটি প্রকাশের জন্য অত্যন্ত ঝুঁকিপূর্ণ, কারণ খারাপ উদ্দেশ্যসম্পন্ন লোকেরা এর উন্নত সাইবারসিকিউরিটি সক্ষমতা কাজে লাগাতে পারে। সেই সিদ্ধান্ত ওয়াশিংটনের ভেতরে উল্লেখযোগ্য প্রভাব ফেলেছে বলে মনে হয়।
সূত্রপাঠ অনুযায়ী, হোয়াইট হাউসের ন্যাশনাল ইকোনমিক কাউন্সিলের পরিচালক Kevin Hassett Fortune-কে বলেন, ট্রাম্প শিগগিরই এমন একটি executive order জারি করতে পারেন যাতে উন্নত AI সিস্টেমগুলো প্রকাশের আগে সরকারি পরীক্ষার মধ্য দিয়ে যেতে বাধ্য হয়। তা হলে, প্রশাসন নবায়িত স্বেচ্ছামূলক সহযোগিতা থেকে একটি আনুষ্ঠানিক প্রকাশ-পূর্ব মূল্যায়ন ব্যবস্থায় যাবে।
রাজনৈতিক বিদ্রুপটি এড়ানো কঠিন। যে হোয়াইট হাউস একসময় নিরাপত্তা তদারকিকে অগ্রগতির ব্রেক হিসেবে তুলে ধরেছিল, সেটিই এখন এমন একটি আদেশ বিবেচনা করছে, যখন একটি ফ্রন্টিয়ার মডেল এত গুরুতর উদ্বেগ তৈরি করেছে যে তার নির্মাতা সেটি প্রকাশই করেনি।
CAISI বড় ভূমিকার দিকে
CAISI-এর নিজস্ব ঘোষণায় স্পষ্টভাবে বলা হয়েছে, নতুন চুক্তিগুলো বাইডেনের আগের নীতির উপর “build on” করে। এই ভাষা গুরুত্বপূর্ণ, কারণ এটি এক সময়ের বাগ্মিতাগত বিচ্ছেদের পরও ধারাবাহিকতাকে স্বীকার করে। প্রশাসন ব্র্যান্ডিং বদলালেও, কাঠামোবদ্ধ মডেল মূল্যায়নের কার্যগত প্রয়োজন আবারও দৃঢ় হয়েছে বলে মনে হচ্ছে।
CAISI পরিচালক Chris Fall বলেন, বিস্তৃত শিল্প সহযোগিতা কেন্দ্রটিকে “critical moment”-এ জনস্বার্থে তার কাজ প্রসারিত করতে সাহায্য করবে। সূত্রপাঠ অনুযায়ী, CAISI এখন পর্যন্ত প্রায় 40টি মূল্যায়ন সম্পন্ন করেছে, যার মধ্যে এখনও প্রকাশ না হওয়া ফ্রন্টিয়ার মডেলগুলোর পরীক্ষাও রয়েছে।
এই মূল্যায়নগুলো বিশেষভাবে গুরুত্বপূর্ণ, কারণ CAISI প্রায়ই এমন সিস্টেমে প্রবেশাধিকার পায় যেগুলোর নিরাপত্তা স্তর কমানো বা সরানো হয়েছে। সংস্থার মতে, এর ফলে মূল্যায়নকারীরা জাতীয় নিরাপত্তা-সম্পর্কিত ক্ষমতা ও ঝুঁকি জনমুখী ডেপ্লয়মেন্টের তুলনায় অনেক বেশি গভীরভাবে বিশ্লেষণ করতে পারেন।
বাস্তবে, এর মানে সরকার শুধু প্রকাশের পর মসৃণ করা পণ্য পর্যালোচনা করছে না। নিরাপত্তার কিছু স্তর সরিয়ে দিলে মডেলগুলো কী করতে পারে, সেটাও দেখা হচ্ছে, যা সক্ষমতা মূল্যায়নের অনেক বেশি গভীর রূপ।
নীতির পরিবর্তনে জাতীয় নিরাপত্তাই চালিকা শক্তি
প্রশাসনের নতুন অবস্থানকে অনেকটাই জাতীয় নিরাপত্তা-কেন্দ্রিকভাবে উপস্থাপন করা হচ্ছে। CAISI বলছে, AI জাতীয় নিরাপত্তা-সংক্রান্ত উদ্বেগে মনোযোগী বিশেষজ্ঞদের একটি interagency task force গঠন করা হয়েছে, যাতে মূল্যায়নকারীরা সরকারজুড়ে উদীয়মান ঝুঁকির সঙ্গে সামঞ্জস্য বজায় রাখতে পারেন।
এই জোর দেওয়া গুরুত্বপূর্ণ, কারণ এটি রাজনৈতিক পুনঃস্থাপনকে ব্যাখ্যা করতে সাহায্য করে। AI নৈতিকতা বা ভোক্তা-ক্ষতির সাধারণ বিতর্ক নীতি-নির্ধারকদের পরিচিত মতাদর্শগত রেখায় ভাগ করতে পারে। জাতীয় নিরাপত্তার প্রশ্নগুলো প্রায়ই সেই রেখাগুলোকে দ্রুত পুনর্বিন্যাস করে। বিপজ্জনক cyber misuse-এ সক্ষম বলে বিবেচিত একটি মডেলকে সাধারণ প্রযুক্তি-নীতি বিরোধের বদলে কৌশলগত হুমকি হিসেবে উপস্থাপন করা সহজ।
এতে AI কীভাবে শাসিত হওয়া উচিত, সেই বৃহত্তর বিতর্কের সমাধান হয় না, কিন্তু এখন প্রশাসনকে কী চালাচ্ছে তা পরিষ্কার হয়। উদ্বেগটি কোনো বিমূর্ত নিরাপত্তা ব্র্যান্ডিং নয়। উদ্বেগ হলো, ফ্রন্টিয়ার সিস্টেমগুলো সরকারী মূল্যায়নকারীরা ঝুঁকির প্রোফাইল বুঝে ওঠার আগেই শত্রুভাবাপন্ন পক্ষকে অপারেশনাল সুবিধা দিতে পারে।
এই উল্টোফেরাটা কেন গুরুত্বপূর্ণ
নতুন চুক্তিগুলোর তাৎপর্য নীতি ও সংকেত, দুই স্তরেই রয়েছে। নীতিগতভাবে, এগুলো এমন একটি পথ পুনরুদ্ধার করে যার মাধ্যমে বড় AI কোম্পানিগুলো তাদের ফ্রন্টিয়ার সিস্টেম প্রকাশের আগে ও পরে সরকারি নজরদারির আওতায় আনে। সংকেতের দিক থেকে, এগুলো দেখায় যে “AI safety”-এর প্রতি কথার ভাষায় বৈরী প্রশাসনও, সক্ষমতা যথেষ্ট দ্রুত বাড়লে কাঠামোবদ্ধ তদারকিতে ফিরে আসতে পারে।
অংশগ্রহণকারী প্রতিষ্ঠানগুলোও গুরুত্বপূর্ণ। Google DeepMind, Microsoft এবং xAI শীর্ষস্থানীয় সিস্টেম তৈরি বা সমর্থনকারী কোম্পানিগুলোর মধ্যে রয়েছে, তাই তাদের অংশগ্রহণ এই কাঠামোকে বাস্তব ওজন দেয়। ভবিষ্যতে কোনো executive order যদি পরীক্ষাকে বাধ্যতামূলক করে, তবে সরকারের কাছে আগেই সক্রিয় সম্পর্ক ও কিছু কার্যগত অভিজ্ঞতা থাকবে।
একই সঙ্গে বর্তমান পরিবর্তন বেশ কিছু অনিরসনীয় প্রশ্ন রেখে যাচ্ছে। সূত্রপাঠে বলা হয়েছে, কিছু প্রতিষ্ঠান চুক্তি করেছে, কিন্তু পূর্ণ তালিকা বা প্রয়োগের বিস্তারিত দেয়নি। ট্রাম্প যদি executive order এগিয়ে নেন, তবে কী মাপকাঠিতে একটি “advanced” সিস্টেম নির্ধারিত হবে, সেটিও ব্যাখ্যা করা হয়নি।
তবু দিকনির্দেশনা স্পষ্ট। যে হোয়াইট হাউস AI safety-কে খাটো করে দেখাতে চেয়েছিল, সেটিকে আবার ফ্রন্টিয়ার মডেলের আচরণ এবং সেগুলো তৈরি করা কোম্পানিগুলোর সতর্কতা সেই দিকেই টেনে এনেছে।
ক্ষমতাই নীতির বিতর্ক বদলে দিয়েছে
এই ঘটনা মনে করিয়ে দেয়, তাত্ত্বিক উদ্বেগ যখন কার্যগত উদ্বেগে পরিণত হয়, তখন AI নীতির বিতর্ক কত দ্রুত বদলাতে পারে। ট্রাম্প প্রশাসন ধীরে ধীরে রাজনৈতিক সমঝোতার মাধ্যমে বাইডেন-দৃষ্টিভঙ্গির দিকে যায়নি। মনে হচ্ছে, একটি নির্দিষ্ট ঘটনায় তারা প্রতিক্রিয়া জানিয়েছে, যেখানে একটি বড় ডেভেলপার মডেলটিকে প্রকাশের জন্য অত্যন্ত ঝুঁকিপূর্ণ বলে মনে করেছে।
এই পার্থক্য গুরুত্বপূর্ণ। উদীয়মান AI পরিমণ্ডলে, সক্ষমতা-ঘটিত ধাক্কা মতাদর্শিক ধারাবাহিকতার চেয়ে দ্রুত নীতি গঠন করতে পারে। আর প্রশাসন যদি বাধ্যতামূলক প্রকাশ-পূর্ব পরীক্ষার পথে এগোয়, তবে ফ্রন্টিয়ার AI মূল্যায়নে সাম্প্রতিক সবচেয়ে শক্তিশালী মার্কিন পদক্ষেপগুলোর একটি এমন একজন প্রেসিডেন্টের কাছ থেকে আসবে, যিনি শুরুতে এই তদারকিকে অপ্রয়োজনীয় বলেছিলেন।
- ট্রাম্প প্রশাসন Google DeepMind, Microsoft এবং xAI-এর সঙ্গে নতুন স্বেচ্ছামূলক AI নিরাপত্তা পরীক্ষার চুক্তি করেছে।
- এই পদক্ষেপ বাইডেন যুগের AI নিরাপত্তা পরীক্ষা আগেই খারিজ করার অবস্থানকে উল্টে দেয়।
- Anthropic-এর Claude Mythos মডেল প্রকাশ না করার সিদ্ধান্ত এই পরিবর্তনকে ত্বরান্বিত করে থাকতে পারে।
- উন্নত AI সিস্টেমের জন্য প্রকাশ-পূর্ব পরীক্ষা বাধ্যতামূলক করার executive order এখন বিবেচনাধীন।
এই নিবন্ধটি Ars Technica-র প্রতিবেদনকে ভিত্তি করে লেখা। মূল নিবন্ধটি পড়ুন.



