NSA-এর প্রবেশাধিকার নীতিগত প্রশ্ন তুলছে
The Decoder, Axios-এর প্রতিবেদনের দুটি সূত্র-উদ্ধৃত সারসংক্ষেপের ভিত্তিতে বলছে যে, মার্কিন National Security Agency Anthropic-এর সবচেয়ে শক্তিশালী AI মডেল Mythos Preview ব্যবহার করছে।
এই কথিত ব্যবহারটি উল্লেখযোগ্য, কারণ NSA Pentagon-এর অধীনস্থ; অন্যদিকে Defense Department আলাদাভাবে Anthropic-কে নিরাপত্তা ঝুঁকি হিসেবে শ্রেণিবদ্ধ করেছে এবং ফেব্রুয়ারি থেকে কোম্পানিটিকে বিক্রেতা হিসেবে আটকে রাখার চেষ্টা করছে।
এই পরিস্থিতি সরকারি AI গ্রহণে বাড়তে থাকা টানাপড়েনকে দেখায়: সংস্থাগুলো উন্নত মডেলে অ্যাক্সেস চায়, কিন্তু সেই একই সিস্টেমগুলো নিরাপত্তা, ক্রয়, নজরদারি, এবং অস্ত্রনীতি-সংক্রান্ত উদ্বেগও তৈরি করতে পারে।
একটি সীমাবদ্ধ মডেল
Anthropic Project Glasswing নামে একটি উদ্যোগের অধীনে Mythos-এর অ্যাক্সেস প্রায় 40টি সংস্থায় সীমিত রেখেছে। কোম্পানির দাবি, মডেলটির offensive cyber সক্ষমতা ব্যাপক প্রকাশের জন্য খুবই বিপজ্জনক।
এই সীমাবদ্ধতা Mythos-কে সাধারণ-purpose commercial chatbot-এর থেকে আলাদা শ্রেণিতে রাখে। মডেলটিকে আরেকটি productivity tool নয়, বরং একটি সংবেদনশীল সক্ষমতা হিসেবে দেখা হচ্ছে।
The Decoder জানায়, Anthropic CEO Dario Amodei গত সপ্তাহে White House কর্মকর্তাদের সঙ্গে সাক্ষাৎ করেন, যাতে সরকারী সংস্থাগুলোর মধ্যে Mythos মোতায়েন নিয়ে আলোচনা করা যায়। UK-এর intelligence services-ও নাকি দেশটির AI Security Institute-এর মাধ্যমে মডেলটিতে অ্যাক্সেস পেয়েছে।
গ্রহণযোগ্য ব্যবহার নিয়ে বিরোধ
Pentagon Anthropic-কে Claude সব বৈধ উদ্দেশ্যে উপলব্ধ করতে বলেছে। Anthropic তা প্রত্যাখ্যান করে mass surveillance এবং autonomous weapons ঘিরে সীমা নির্ধারণ করেছে।
এই বিরোধ উদীয়মান AI procurement বিতর্কের মূল বিষয়কে স্পর্শ করে। একটি model provider তার সিস্টেম কীভাবে ব্যবহৃত হবে সে বিষয়ে red lines নির্ধারণ করতে চাইতে পারে, আর সরকারি ক্রেতারা বলতে পারেন যে আইনগত কর্তৃত্বই অনুমোদিত ব্যবহার নির্ধারণ করা উচিত।
intelligence এবং defense সংস্থাগুলোর জন্য frontier AI মডেল cyber analysis, language processing, information triage, এবং অন্যান্য উচ্চ-ভলিউম বিশ্লেষণমূলক কাজে উপযোগী হতে পারে। কিন্তু একই সক্ষমতা নজরদারি, offensive cyber operations, বা কম মানব নিয়ন্ত্রণে চলা সিস্টেমে ব্যবহার হলে উদ্বেগও তৈরি করতে পারে।
এটি কেন গুরুত্বপূর্ণ
Mythos-এ NSA-এর কথিত ব্যবহার ইঙ্গিত দেয় যে vendor restrictions, national security exclusions, এবং acceptable-use boundaries নিয়ে স্থিতিশীল নীতিগত মানদণ্ড পুরোপুরি গঠিত হওয়ার আগেই শক্তিশালী AI systems সংবেদনশীল সরকারি পরিবেশে প্রবেশ করছে।
এই দ্বন্দ্ব আরও দেখায় যে AI safety commitments এখন আর শুধু product-design-এর বিষয় নয়। সেগুলো procurement terms, legal disputes, এবং national security প্রশ্নে পরিণত হচ্ছে।
যদি সংস্থাগুলো সীমাবদ্ধ AI মডেল গ্রহণ করে, আর সরকারের অন্য অংশ vendor-এর ভূমিকাকে চ্যালেঞ্জ করে, তাহলে ফল হতে পারে একটি খণ্ডিত পদ্ধতি: এক দপ্তর একটি মডেলকে কৌশলগতভাবে প্রয়োজনীয় মনে করবে, আর অন্যটি provider-কে নিরাপত্তা উদ্বেগ হিসেবে দেখবে।
Mythos case সম্ভবত নিবিড়ভাবে দেখা হবে, কারণ এতে একসঙ্গে AI governance-এর সবচেয়ে গুরুত্বপূর্ণ কয়েকটি প্রশ্ন জড়িত: frontier models-এ কার অ্যাক্সেস থাকবে, cyber-capable systems কীভাবে নিয়ন্ত্রিত হবে, এবং একটি private AI company কি কিছু government use প্রত্যাখ্যান করেও public-sector customers-কে সেবা দিতে পারে।
এই নিবন্ধটি The Decoder-এর প্রতিবেদনের ভিত্তিতে লেখা। মূল নিবন্ধ পড়ুন.
Originally published on the-decoder.com



