শুক্রবারের সময়সীমা এবং AI নৈতিকতা সম্পর্কে একটি শীতল যুদ্ধ

Anthropic, Claude ভাষা মডেল পরিবারের পিছনের AI নিরাপত্তা কোম্পানি, US প্রতিরক্ষা বিভাগের সাথে একটি অসাধারণ সংঘর্ষের সম্মুখীন। প্রতিবেদন অনুযায়ী, পেন্টাগন Anthropic কে এর সামরিক AI প্রযুক্তির অ্যাপ্লিকেশনগুলিতে সীমাবদ্ধতা শিথিল করার দাবি করেছে — বিশেষত স্বায়ত্তশাসিত অস্ত্র সিস্টেম এবং ব্যাপক নজরদারিতে ব্যবহার সম্পর্কে এর নিষেধাজ্ঞা। Anthropic অস্বীকার করেছে এবং প্রতিরক্ষা বিভাগ প্রতিরক্ষা উৎপাদন আইন প্রয়োগের হুমকি দিয়ে সাড়া দিয়েছে, একটি শীতল যুদ্ধ-যুগের আইন যা সরকারকে ব্যক্তিগত কোম্পানিগুলিকে জাতীয় প্রতিরক্ষা উৎপাদনকে অগ্রাধিকার দিতে বাধ্য করতে দেয়।

কোম্পানিটিকে সম্মতির জন্য শুক্রবার পর্যন্ত সময় দেওয়া হয়েছে। Anthropic যদি তার অস্বীকার বজায় রাখে, পেন্টাগন আইনিভাবে কোম্পানিটিকে তার সামরিক উদ্দেশ্যে AI ক্ষমতায় অ্যাক্সেস প্রদান করতে বাধ্য করতে পারে, এটি একটি আইনি এবং নৈতিক সংঘর্ষ স্থাপন করে যার AI শিল্পে কোনও স্পষ্ট নজির নেই।

Anthropic কি সীমাবদ্ধ করেছে

এর প্রতিষ্ঠার পর থেকে, Anthropic একটি গ্রহণযোগ্য ব্যবহার নীতি বজায় রেখেছে যা স্পষ্টভাবে স্বায়ত্তশাসিত অস্ত্র, ব্যাপক নজরদারি এবং অন্যান্য অ্যাপ্লিকেশনগুলিতে এর AI মডেলগুলির ব্যবহার নিষিদ্ধ করে যা কোম্পানি নিরাপদে AI বিকাশের মিশনের সাথে অসামঞ্জস্যপূর্ণ বলে মনে করে। এই সীমাবদ্ধতাগুলি AI শিল্পে অস্বাভাবিক নয় — বেশিরভাগ প্রধান AI কোম্পানির অনুরূপ নীতি রয়েছে — তবে Anthropic বিশেষভাবে এর সংগঠনের মূল নীতি হিসাবে AI নিরাপত্তার প্রতি প্রতিশ্রুতি সম্পর্কে কণ্ঠস্বর করেছে।

কোম্পানিটি সাবেক OpenAI গবেষকদের Dario এবং Daniela Amodei দ্বারা প্রতিষ্ঠিত হয়েছিল, আংশিক AI উন্নয়নের গতি এবং শাসনের উদ্বেগের কারণে। এর ব্র্যান্ড পরিচয় দায়িত্বশীল AI উন্নয়নের চারপাশে নির্মিত, এবং AI সারিবদ্ধতা এবং ব্যাখ্যাযোগ্যতায় এর গবেষণা এটিকে কৃত্রিম বুদ্ধিমত্তার প্রতি নিরাপত্তা-প্রথম পদ্ধতিতে একজন নেতা হিসাবে অবস্থান করেছে। সামরিক সীমাবদ্ধতার পিছনে ফিরে যাওয়া কোম্পানির প্রতিষ্ঠাতামূলক বর্ণনাকে হ্রাস করবে।

প্রতিরক্ষা উৎপাদন আইন হুমকি

প্রতিরক্ষা উৎপাদন আইন, 1950 সালে কোরিয়ান যুদ্ধের সময় স্বাক্ষরিত, রাষ্ট্রপতিকে ব্যক্তিগত শিল্পকে জাতীয় প্রতিরক্ষার জন্য প্রয়োজনীয় চুক্তি এবং অর্ডারগুলিকে অগ্রাধিকার দিতে নির্দেশ করার বিস্তৃত কর্তৃত্ব দেয়। এটি সময়ে সময়ে বিভিন্ন উদ্দেশ্যের জন্য আহ্বান করা হয়েছে — সবচেয়ে সম্প্রতি COVID-19 মহামারীর সময় চিকিৎসা সরবরাহ উৎপাদন বাধ্য করতে — তবে এটি একটি AI কোম্পানিকে তার প্রযুক্তি সামরিক অ্যাপ্লিকেশনের জন্য প্রদান করতে বাধ্য করতে ব্যবহার করা আইনটির একটি অভূতপূর্ব প্রয়োগ প্রতিনিধিত্ব করবে।

আইনি বিশেষজ্ঞরা এটি নিয়ে বিভক্ত হয়েছেন যে এই ধরনের একটি আহ্বান বিচারিক যাচাইয়ের সাথে টিকে থাকবে কিনা। DPA শারীরিক পণ্য উৎপাদনের জন্য ডিজাইন করা হয়েছিল — ইস্পাত, গোলাবারুদ, চিকিৎসা সরঞ্জাম — একটি সফটওয়্যার কোম্পানিকে তার পরিষেবার শর্তাবলী পরিবর্তন করতে বাধ্য করার জন্য নয়। এই প্রশ্ন যে AI মডেলের অ্যাক্সেস একটি "পণ্য" গঠন করে যা আইনের অধীনে দখল করা যেতে পারে উপন্যাস আইনি প্রশ্ন উত্থাপন করে যা আদালতগুলি এখনও সম্বোধন করেনি।

  • পেন্টাগন Anthropic কে স্বায়ত্তশাসিত অস্ত্র এবং নজরদারিতে AI ব্যবহারে সীমাবদ্ধতা অপসারণ করতে দাবি করে
  • Anthropic অস্বীকার করে, এর প্রতিষ্ঠাতামূলক AI নিরাপত্তা নীতিতে আবেদন করে
  • প্রতিরক্ষা বিভাগ শুক্রবারের মধ্যে প্রতিরক্ষা উৎপাদন আইন প্রয়োগ করার হুমকি দেয়
  • আইনি বিশেষজ্ঞরা প্রশ্ন করেন যে DPA একটি সফটওয়্যার কোম্পানিকে এর নীতি পরিবর্তন করতে বাধ্য করতে পারে কিনা
  • এই সংঘাতটি সমগ্র AI শিল্পে সরকারী কর্তৃত্বের জন্য নজির স্থাপন করতে পারে

শিল্প প্রভাব

Anthropic এবং পেন্টাগনের মধ্যে সংঘর্ষ একটি AI শিল্পের মাধ্যমে সঞ্চারিত হয় যা জাতীয় নিরাপত্তা সংস্থাগুলির সাথে ক্রমবর্ধমান জটিল সম্পর্কের নেভিগেট করছে। Google, Microsoft, Amazon এবং OpenAI সকলের উল্লেখযোগ্য প্রতিরক্ষা চুক্তি রয়েছে এবং প্রতিটি তাদের প্রযুক্তির সামরিক অ্যাপ্লিকেশনের উপর অভ্যন্তরীণ এবং বাহ্যিক চাপের সম্মুখীন হয়েছে। Google 2018 সালে কর্মচারী প্রতিবাদের পর থেকে Project Maven, একটি পেন্টাগন AI প্রোগ্রাম থেকে বিখ্যাতভাবে প্রত্যাহার করেছিল, যদিও কোম্পানি তার পর থেকে তার প্রতিরক্ষা কাজ সম্প্রসারিত করেছে।

যদি প্রতিরক্ষা উৎপাদন আইন Anthropic এর বিরুদ্ধে সফলভাবে ব্যবহার করা হয়, এটি এমন একটি নজির প্রতিষ্ঠা করবে যে যেকোনো AI কোম্পানি মার্কিন যুক্তরাষ্ট্রে কাজ করছে এর নিজের নৈতিক নির্দেশিকা নির্বিশেষে তার প্রযুক্তি সামরিক উদ্দেশ্যে প্রদান করতে বাধ্য করা যেতে পারে। এই সম্ভাবনা AI নিরাপত্তা গবেষণাকে ঠান্ডা করতে পারে, নিরাপত্তা-কেন্দ্রিক কোম্পানিগুলিকে US এর বাইরে স্থানান্তরিত করতে চালিত করতে পারে অথবা একটি বিভক্ত শিল্প তৈরি করতে পারে যেখানে কোম্পানিগুলি সরকার চুক্তি এবং নিরাপত্তা প্রতিশ্রুতির মধ্যে বেছে নিতে হবে।

বিপরীতভাবে, যদি Anthropic সফলভাবে আদেশ প্রতিরোধ করে — আইনি চ্যালেঞ্জ বা রাজনৈতিক আলোচনার মাধ্যমে যাই হোক না কেন — এটি নীতিটিকে শক্তিশালী করতে পারে যে AI কোম্পানিগুলি তাদের প্রযুক্তি কীভাবে ব্যবহার করা হয় সে বিষয়ে নৈতিক সীমানা নির্ধারণ করার অধিকার রয়েছে, এমনকি যখন গ্রাহক US সরকার যখন।

বৃহত্তর উত্তেজনা

এই সংঘাতটি একটি প্রাথমিক উত্তেজনা প্রতিফলিত করে যা বড় ভাষা মডেল এবং অন্যান্য উন্নত AI সিস্টেম সামরিক অ্যাপ্লিকেশনগুলির সাথে স্পষ্ট ক্ষমতা প্রদর্শন করতে শুরু করার পর থেকে তৈরি হয়েছে। US সরকার AI আধিপত্যকে জাতীয় নিরাপত্তার জন্য প্রয়োজনীয় হিসাবে দেখে, বিশেষত চিনের সাথে প্রতিযোগিতায়, যা কম নৈতিক সীমাবদ্ধতার সাথে সামরিক AI অ্যাপ্লিকেশনে সম্পদ ঢালছে। পেন্টাগনের দৃষ্টিকোণ থেকে, একটি নেতৃস্থানীয় AI কোম্পানিকে প্রতিরক্ষা অ্যাপ্লিকেশনগুলি অনুমতি দেওয়া একটি বিলাসিতা যা জাতি সামর্থ্য রাখতে পারে না।

Anthropic এর দৃষ্টিকোণ থেকে, সীমাবদ্ধতাগুলি ঠিক এই কারণেই বিদ্যমান কারণ কোম্পানি বিশ্বাস করে যে শক্তিশালী AI সিস্টেমগুলির অসীম সামরিক প্রয়োগ বিপর্যয়ী ঝুঁকি উপস্থাপন করে — ঝুঁকি যা কেবল কারণ ব্যবহারকারী একটি আমেরিকান ইউনিফর্ম পরার কারণে সঙ্কুচিত হয় না। কোম্পানির অবস্থান হল যে AI এর কিছু অ্যাপ্লিকেশন খুবই বিপজ্জনক যাতে সক্ষম করা যায়, নির্বিশেষে কে জিজ্ঞাসা করছে।

এই সংঘাতটি কীভাবে সমাধান হয় তা সম্ভবত আগামী বছরগুলিতে AI শিল্প এবং US সরকারের মধ্যে সম্পর্ককে গঠন করবে। এটি AI নিরাপত্তা প্রতিশ্রুতি জাতীয় নিরাপত্তা অপরিহার্যতার মহাকর্ষণ টানের সাথে সহ্য করতে পারে কিনা তার একটি পরীক্ষার ক্ষেত্রে — এবং সরকার তাদের সবচেয়ে শক্তিশালী আইনি সরঞ্জামগুলি ব্যবহার করবে তা নিশ্চিত করার জন্য তারা পারবে না কিনা।

এই নিবন্ধটি The Decoder দ্বারা প্রতিবেদনের উপর ভিত্তি করে। আসল নিবন্ধটি পড়ুন