Nuevos resultados de referencia reducen la distancia entre la narrativa de seguridad de la IA y el rendimiento medido

Nuevas pruebas de ciberseguridad del Instituto de Seguridad de IA del Reino Unido están complicando una de las narrativas más sonoras recientes en la IA de frontera: la idea de que Mythos Preview de Anthropic representa una amenaza cibernética singularmente elevada. Según los nuevos resultados, GPT-5.5 de OpenAI alcanzó un nivel de rendimiento similar en las evaluaciones cibernéticas del instituto, lo que sugiere que Mythos podría ser menos un salto aislado que una señal de progreso más amplio de los modelos.

Esa es la conclusión central que reporta Ars Technica a partir de los hallazgos del AISI. Importa porque Anthropic había destacado previamente el riesgo inusual de ciberseguridad de Mythos Preview y limitó su lanzamiento inicial a socios críticos de la industria. La nueva comparación no dice que esos riesgos sean irreales. Dice que capacidades comparables ya podrían estar emergiendo en varios modelos de primer nivel a medida que mejoran la autonomía de largo plazo, el razonamiento y la programación.

Qué midieron las pruebas

Desde 2023, el AISI ha sometido a sistemas de IA de frontera a 95 desafíos Capture the Flag diseñados para evaluar capacidades de ciberseguridad en áreas como ingeniería inversa, explotación web y criptografía. No son impresiones vagas de la competencia de un modelo. Son evaluaciones basadas en tareas, pensadas para mostrar hasta dónde pueden llegar los sistemas en trabajos cibernéticos ofensivos concretos.

En las tareas de nivel más alto, “Expert”, GPT-5.5 obtuvo un promedio de 71.4 por ciento, ligeramente por encima del 68.6 por ciento de Mythos Preview y dentro del margen de error. Ese encuadre es importante. El resultado no establece un ganador decisivo. Establece paridad en un nivel lo bastante alto como para cuestionar la idea de que solo un modelo ha cruzado una nueva categoría de riesgo.