Una recompensa por fallos centrada en el riesgo biológico
OpenAI ha abierto las solicitudes para un nuevo GPT-5.5 Bio Bug Bounty, un programa de red teaming específico centrado en si los investigadores pueden descubrir un jailbreak universal que venza las salvaguardas relacionadas con la biología de la empresa. La estructura es inusualmente específica. Se pide a los participantes que produzcan un único prompt capaz de responder con éxito a las cinco preguntas del desafío de seguridad biológica de OpenAI desde un chat limpio, sin activar la moderación. La recompensa máxima es de 25.000 dólares para el primer jailbreak universal verdadero que complete las cinco.
El programa, según el texto fuente proporcionado, se aplica solo a GPT-5.5 en Codex Desktop. Las solicitudes se abrieron el 23 de abril de 2026, con admisiones continuas hasta el 22 de junio de 2026. Las pruebas están programadas para comenzar el 28 de abril y continuar hasta el 27 de julio. OpenAI dice que, a su discreción, podrían otorgarse premios menores por éxitos parciales.
Esto importa porque muestra a una empresa de IA de frontera tratando el uso indebido biológico no solo como una cuestión de política, sino como un problema concreto de robustecimiento del sistema. En lugar de enmarcar la evaluación de seguridad únicamente mediante revisión interna o lenguaje general de políticas, la empresa invita a especialistas externos a atacar un modo de fallo estrechamente definido.
Por qué importa un jailbreak universal
La mayoría de los fallos de seguridad basados en prompts son situacionales. Un modelo puede resistir una formulación, pero fallar con otra. Un jailbreak universal es distinto porque sugiere una debilidad más general en la capa de seguridad. Si un prompt reutilizable puede eludir el comportamiento protector frente a múltiples prompts peligrosos desde una conversación nueva, eso aumenta considerablemente la gravedad de la vulnerabilidad.
La decisión de OpenAI de centrar el desafío en una prueba biológica de cinco preguntas implica un enfoque basado en umbrales: la empresa está menos interesada en casos límite aislados que en fallos sistemáticos que socavarían la confianza en las defensas biológicas del modelo. Al recompensar un método universal en lugar de ejemplos dispersos, está pidiendo a los red teamers que examinen la integridad de la capa global de alineación.
El tamaño de la recompensa también señala prioridad. Un premio de 25.000 dólares es modesto en comparación con la escala de los grandes programas de vulnerabilidades de software, pero suficiente para atraer a especialistas creíbles en seguridad de IA y bioseguridad. Más importante aún, deja claro que OpenAI está dispuesta a pagar por evidencia de que sus salvaguardas pueden romperse en condiciones controladas antes de que esas debilidades se exploten en otros contextos.







