
New
AI & RoboticsMore in AI & Robotics →
OpenAI coloca as salvaguardas biológicas do GPT-5.5 em um teste de estresse ao vivo com uma nova recompensa por bugs
A OpenAI está oferecendo até US$ 25.000 por um jailbreak universal que supere um desafio de segurança biológica de cinco perguntas no GPT-5.5, transformando o red teaming externo em um teste focado das salvaguardas de modelos de fronteira.
Key Takeaways
- A OpenAI oferece US$ 25.000 pelo primeiro jailbreak universal que conclua todas as cinco perguntas de segurança biológica.
- O programa se aplica apenas ao GPT-5.5 no Codex Desktop.
DE
DT Editorial AI··via openai.com