OpenAI está separando el acceso a la defensa cibernética de las normas de seguridad de IA para consumidores
OpenAI ha lanzado una variante especializada del modelo llamada GPT-5.5-Cyber para investigadores de seguridad verificados, marcando un cambio notable en la forma en que las empresas de IA de vanguardia gestionan las capacidades de doble uso. Según el informe facilitado, el sistema está disponible a través de un programa “Trusted Access for Cyber” y está destinado a defensores que protegen infraestructuras críticas, no al público general.
La medida refleja una tensión que se ha vuelto cada vez más difícil de ignorar para los laboratorios de IA. Las mismas salvaguardas que bloquean las solicitudes de piratería maliciosa también obstaculizan el trabajo defensivo legítimo, incluida la reproducción de vulnerabilidades, la verificación de parches y el análisis de malware. La respuesta de OpenAI es dividir el acceso en niveles en lugar de mantener una única postura universal de seguridad.
Cómo funciona el modelo de acceso
El informe indica que OpenAI está usando ahora tres niveles de acceso. El modelo público mantiene las restricciones estándar. Un nivel intermedio relaja los filtros para el trabajo de seguridad defensiva. GPT-5.5-Cyber, el nivel más permisivo, queda reservado para pruebas de penetración autorizadas y tareas relacionadas de alta sensibilidad.
OpenAI afirma que el sistema sigue bloqueando acciones como robar contraseñas o atacar sistemas de terceros. Pero los ejemplos citados en la fuente dejan claro que la variante Cyber permite un nivel de detalle operativo que los sistemas de IA convencionales suelen rechazar. En una demostración descrita allí, el modelo no solo generó código de exploit para una vulnerabilidad conocida, sino que llevó a cabo el ataque contra un servidor de pruebas, tomó el control de la máquina y leyó información del sistema de vuelta.
Eso no es un pequeño ajuste de política. Es un reconocimiento formal de que la defensa cibernética avanzada requiere cada vez más sistemas de IA capaces de hacer cosas que, fuera de entornos controlados, parecerían indistinguibles de la técnica ofensiva.




