OpenAI ভোক্তা AI নিরাপত্তা নিয়ম থেকে cyber defense access আলাদা করছে

OpenAI যাচাইকৃত নিরাপত্তা গবেষকদের জন্য GPT-5.5-Cyber নামে একটি বিশেষ মডেল ভ্যারিয়েন্ট প্রকাশ করেছে, যা frontier AI কোম্পানিগুলি dual-use capabilities কীভাবে সামলাচ্ছে তাতে একটি উল্লেখযোগ্য পরিবর্তন। সরবরাহকৃত রিপোর্ট অনুযায়ী, systemটি “Trusted Access for Cyber” program-এর মাধ্যমে পাওয়া যাচ্ছে এবং এটি সাধারণ জনগণের জন্য নয়, বরং critical infrastructure রক্ষা করা defenders-এর জন্য তৈরি।

এই পদক্ষেপ এমন একটি tension প্রতিফলিত করে, যাকে AI labs-এর আর উপেক্ষা করা কঠিন হয়ে পড়েছে। যে safeguards malicious hacking requests ব্লক করে, সেগুলোই আবার vulnerability reproduction, patch verification, এবং malware analysis-এর মতো বৈধ defensive work-ও বাধাগ্রস্ত করে। OpenAI-এর প্রতিক্রিয়া হলো একটি universal safety posture বজায় রাখার বদলে access-কে tiers-এ ভাগ করা।

access model কীভাবে কাজ করে

রিপোর্টে বলা হয়েছে OpenAI এখন তিনটি access level ব্যবহার করছে। public model-এ standard restrictions থাকে। মাঝের tier defensive security work-এর জন্য filters শিথিল করে। সবচেয়ে permissive tier, GPT-5.5-Cyber, authorized penetration testing এবং সম্পর্কিত high-sensitivity কাজের জন্য reserved।

OpenAI বলছে systemটি এখনও passwords চুরি করা বা third-party systems-এ আক্রমণ করার মতো কাজ ব্লক করে। কিন্তু source-এ দেওয়া উদাহরণগুলো স্পষ্ট করে যে Cyber variant এমন operational detail-এর level অনুমোদন করে, যা mainstream AI systems সাধারণত প্রত্যাখ্যান করে। সেখানে বর্ণিত একটি demonstration-এ, modelটি শুধু একটি পরিচিত vulnerability-এর জন্য exploit code তৈরি করেনি, বরং একটি test server-এর বিরুদ্ধে attack চালিয়েছে, machine-এর control নিয়েছে, এবং system information পড়ে ফিরিয়ে দিয়েছে।

এটি ছোট কোনো policy tweak নয়। এটি আনুষ্ঠানিক স্বীকৃতি যে advanced cyber defense increasingly এমন AI systems চায়, যা এমন কাজ করতে পারে যা নিয়ন্ত্রিত পরিবেশের বাইরে offensive tradecraft থেকে আলাদা করা প্রায় অসম্ভব দেখাবে।