Los responsables de la estabilidad financiera están reaccionando antes de que un modelo se lance ampliamente
La decisión informada del secretario del Tesoro de EE. UU., Scott Bessent, de convocar a los principales directivos de los bancos estadounidenses a Washington por riesgos cibernéticos vinculados al último modelo de IA de Anthropic marca un cambio notable en la forma en que los responsables políticos están tratando la IA de frontera. Ya no se trata solo de un debate entre investigadores y desarrolladores de modelos. Se está discutiendo como una cuestión de riesgo financiero sistémico.
Según el informe, la reunión tuvo lugar después de la publicación de información sobre el modelo Claude Mythos de Anthropic, que la empresa afirma que plantea riesgos de ciberseguridad sin precedentes. Jerome Powell, presidente de la Reserva Federal, habría estado entre los asistentes, lo que subraya la seriedad con la que los funcionarios están abordando el asunto.
La preocupación está vinculada a capacidades de explotación de software
Anthropic dijo en una publicación de blog a comienzos del mes que los modelos de IA habían superado a “todos salvo a los humanos más expertos” a la hora de encontrar y explotar vulnerabilidades de software. La empresa advirtió que las consecuencias para las economías, la seguridad pública y la seguridad nacional podrían ser graves.
El contexto inmediato de esa advertencia fue una reciente filtración del código de Claude, que parece haber aumentado el escrutinio sobre lo que el modelo podría permitir si sus capacidades fueran mal utilizadas o no estuvieran suficientemente controladas. El informe dice que Anthropic ha afirmado que su modelo Mythos, que aún no se ha lanzado ampliamente, ha expuesto miles de vulnerabilidades en software y aplicaciones populares.
Esa afirmación ayuda a explicar por qué los reguladores y los directivos bancarios tratarían el asunto como urgente. Las grandes instituciones financieras dependen de enormes parques de software, sistemas heredados, conexiones con proveedores y canales digitales que, en conjunto, crean amplias superficies de ataque. Si los sistemas de IA reducen de manera significativa el nivel de habilidad necesario para encontrar debilidades explotables, la carga defensiva de los bancos aumenta rápidamente.
Anthropic está restringiendo el acceso con una medida inusual
La respuesta de la empresa es en sí misma notable. El informe dice que esta es la primera vez que Anthropic restringe el lanzamiento de un producto. El acceso a Mythos, según se informa, se ha limitado a un pequeño grupo de empresas, entre ellas Amazon, Apple, Microsoft, Cisco, Broadcom y la Linux Foundation.
Esa restricción importa por dos razones. Primero, sugiere que Anthropic cree que las implicaciones cibernéticas del modelo son lo bastante excepcionales como para justificar un despliegue más cauteloso de lo habitual. Segundo, señala que el sector de la IA de frontera podría estar entrando en una fase en la que las decisiones de acceso a los modelos se parezcan cada vez más a la lógica del control de exportaciones, la autorización de seguridad o la gobernanza de infraestructura crítica, más que a un lanzamiento ordinario de producto.
Para el sector financiero, eso plantea preguntas difíciles. Si existe un modelo con fuertes capacidades para descubrir vulnerabilidades, los bancos deben considerar no solo si pueden usarlo de forma defensiva, sino también si los adversarios, contratistas o terceros podrían obtener acceso a través de filtraciones, sistemas derivados o futuros lanzamientos.
Por qué los bancos están en el centro de la preocupación
La lista de invitados, según se informa, se centró en líderes de bancos de importancia sistémica, instituciones cuya disrupción o colapso amenazaría la estabilidad financiera. Entre los presentes habrían estado ejecutivos de Goldman Sachs, Bank of America, Citigroup, Morgan Stanley y Wells Fargo. Jamie Dimon, de JPMorgan, fue invitado, pero no pudo asistir.
El foco en estos bancos indica que el problema no se está enmarcando como una mera higiene cibernética. Se está tratando como un riesgo de concentración. Un incidente cibernético grave que afecte a un gran banco puede extenderse a los pagos, los mercados, la confianza y la liquidez. La detección de vulnerabilidades asistida por IA, por tanto, se convierte en algo más que un asunto técnico: se convierte en un asunto macroprudencial.
La carta anual a los accionistas de Dimon, también citada en el informe, encaja con ese enfoque. Advirtió que la ciberseguridad sigue siendo uno de los mayores riesgos de la empresa y que la IA casi con toda seguridad empeorará ese riesgo.
Puede que se haya cruzado un umbral de política
Desde hace tiempo existen advertencias de que la IA avanzada podría transformar el ataque y la defensa cibernéticos. Lo que está cambiando es el grado en que los altos responsables económicos y regulatorios parecen dispuestos a actuar sobre esa posibilidad antes de que una crisis pública les obligue a hacerlo. Convocar a los principales líderes bancarios es, en sí mismo, una declaración de que la capacidad de los modelos de frontera ya es relevante para la planificación de la resiliencia financiera nacional.
También crea presión para una coordinación más formal entre empresas de IA, reguladores financieros y operadores de infraestructura crítica. Si los desarrolladores de modelos están descubriendo miles de vulnerabilidades, los gobiernos querrán saber cada vez más cómo se maneja esa información, quién accede a ella, cómo se coordinan las mitigaciones y qué barreras existen antes de un despliegue más amplio.
El episodio de Mythos todavía no demuestra que una ola de ataques específica sea inminente. Pero sí muestra que los funcionarios de alto nivel ya no esperan una certeza perfecta antes de escalar el asunto. Para los bancos, eso probablemente significa mayores expectativas en materia de parches, supervisión, red teaming y conciencia sobre el riesgo de modelo. Para las empresas de IA, significa que las afirmaciones sobre capacidades pueden atraer ahora un escrutinio al estilo de la seguridad nacional tanto como interés por el producto.
Del lanzamiento de un modelo de frontera al riesgo de infraestructura
La mayor importancia de la reunión reside en el cambio de categoría que representa. Los sistemas de IA de frontera ya no se evalúan solo como herramientas de productividad o hitos de investigación. En algunos casos, se están tratando como tecnologías con implicaciones directas para la infraestructura crítica y la estabilidad sistémica.
Eso es una nueva etapa. El sector financiero es uno de los primeros lugares donde las consecuencias de ese cambio se están haciendo visibles.
Este artículo se basa en la cobertura de The Guardian. Lee el artículo original.




