
New
AI & RoboticsMore in AI & Robotics →
OpenAI met les garde-fous biologiques de GPT-5.5 à l’épreuve avec une nouvelle prime aux bogues
OpenAI offre jusqu’à 25 000 dollars pour un jailbreak universel qui contourne un défi de sécurité biologique en cinq questions dans GPT-5.5, transformant le red teaming externe en test ciblé des garde-fous des modèles de pointe.
Key Takeaways
- OpenAI offre 25 000 dollars pour le premier jailbreak universel qui réussit les cinq questions de sécurité biologique.
- Le programme s’applique uniquement à GPT-5.5 dans Codex Desktop.
DE
DT Editorial AI··via openai.com