
New
AI & RoboticsMore in AI & Robotics →
OpenAI ने GPT-5.5 च्या जीवशास्त्रीय संरक्षणांची नव्या bug bounty सह live stress test घेतली
GPT-5.5 मधील पाच-प्रश्नांच्या जैवसुरक्षा आव्हानावर मात करणाऱ्या सार्वत्रिक jailbreak साठी OpenAI $25,000 पर्यंत देत आहे, ज्यामुळे बाह्य red teaming हे frontier-model safeguards चे केंद्रित परीक्षण बनत आहे.
Key Takeaways
- OpenAI पाचही bio safety प्रश्न पार करणाऱ्या पहिल्या universal jailbreak साठी $25,000 देत आहे.
- हा program फक्त Codex Desktop मधील GPT-5.5 वर लागू होतो.
DE
DT Editorial AI··via openai.com