
New
AI & RoboticsMore in AI & Robotics →
OpenAI somete las salvaguardas biológicas de GPT-5.5 a una prueba de esfuerzo en vivo con una nueva recompensa por fallos
OpenAI ofrece hasta 25.000 dólares por un jailbreak universal que venza un desafío de seguridad biológica de cinco preguntas en GPT-5.5, convirtiendo el red teaming externo en una prueba concentrada de las salvaguardas de modelos de frontera.
Key Takeaways
- OpenAI ofrece 25.000 dólares por el primer jailbreak universal que complete las cinco preguntas de seguridad biológica.
- El programa se aplica solo a GPT-5.5 en Codex Desktop.
DE
DT Editorial AI··via openai.com