
AI & RoboticsMore in AI & Robotics →
OpenAI নতুন bug bounty দিয়ে GPT-5.5-এর জীববৈজ্ঞানিক সুরক্ষা লাইভ stress test-এ ফেলছে
GPT-5.5-এ পাঁচ প্রশ্নের জীববৈজ্ঞানিক নিরাপত্তা চ্যালেঞ্জকে হারাতে পারে এমন universal jailbreak-এর জন্য OpenAI সর্বোচ্চ $25,000 দিচ্ছে, ফলে external red teaming frontier-model safeguards-এর একটি কেন্দ্রীয় পরীক্ষায় পরিণত হচ্ছে।
Key Takeaways
- OpenAI পাঁচটি bio safety প্রশ্ন পেরোনো প্রথম universal jailbreak-এর জন্য $25,000 দিচ্ছে।
- এই program কেবল Codex Desktop-এ GPT-5.5-এর জন্য প্রযোজ্য।
DE
DT Editorial AI··via openai.com