Un Día Fundamental para la Seguridad de la IA
En lo que los críticos llaman un momento bisagra para la industria de la inteligencia artificial, Anthropic anunció cambios radicales a su Política de Escalado Responsable el martes, eliminando los mecanismos de seguridad duros que habían sido centrales a la identidad de la empresa desde su fundación. El momento fue sorprendente — el anuncio llegó exactamente el mismo día en que surgieron reportes sobre el Secretario de Defensa Pete Hegseth presionando a la empresa para darle a los militares estadounidenses acceso sin restricciones a su modelo Claude AI.
Durante más de dos años, el RSP de Anthropic se mantuvo como uno de los compromisos de seguridad más concretos en la industria de IA. La política estableció líneas rojas claras: si los modelos de la empresa alcanzaban ciertos umbrales de capacidad sin medidas de seguridad adecuadas en su lugar, el desarrollo se detendría. Esa promesa ya no existe, reemplazada por un marco más flexible de "Reportes de Riesgo" y "Roadmaps de Seguridad de Frontera" que la empresa dice refleja mejor las realidades del panorama competitivo de IA.
La Justificación del Cambio
Anthropic enmarcó los cambios como una respuesta pragmática a un problema de acción colectiva. "Dos años y medio después, nuestra evaluación honesta es que algunas partes de esta teoría del cambio se han desarrollado como esperábamos, pero otras no," escribió la empresa en su documento de política actualizado. El argumento central es directo: si un desarrollador responsable se detiene mientras los competidores avanzan rápidamente, el resultado podría ser un mundo moldeado por los actores menos cuidadosos en lugar de los más reflexivos.
"Sentimos que no habría ayudado a nadie que paremos entrenar modelos de IA," le dijo Jared Kaplan, director científico de Anthropic, a la revista Time. "Realmente no sentimos, con el rápido avance de la IA, que tenga sentido que hagamos compromisos unilaterales… si los competidores avanzan rápidamente." Es un argumento familiar en tecnología — la idea de que los actores responsables necesitan mantenerse en la frontera para asegurar que las perspectivas conscientes de la seguridad moldeen cómo se desarrolla la tecnología poderosa.
Pero el razonamiento se acomoda incómodamente al lado de la fortuna comercial creciente de la empresa. Anthropic recaudó $30 mil millones en nuevas inversiones solo este mes, llevando su valoración a $380 mil millones. Sus modelos Claude han atraído amplia aclamación, particularmente para aplicaciones de codificación. Las versiones más recientes han sido descritas por la empresa misma como las más seguras hasta ahora — lo que plantea la pregunta de por qué los compromisos de seguridad necesitan debilitarse en el momento exacto cuando las capacidades y recursos están en su apogeo.
El Ultimátum del Pentágono
El elefante en la sala es la campaña de presión concurrente del Departamento de Defensa. Según reportes de Axios, el Secretario de Defensa Hegseth le ha dado al CEO de Anthropic Dario Amodei hasta el viernes para proporcionar a los militares acceso sin restricciones a Claude o enfrentar consecuencias. Esas consecuencias podrían incluir invocar la Ley de Producción de Defensa, seccionar los contratos de defensa existentes de la empresa, o designar a Anthropic como un riesgo de cadena de suministro — un movimiento que obligaría a otros contratistas del Pentágono a certificar que no están usando Claude en sus flujos de trabajo.
Se informa que Claude es el único modelo de IA actualmente utilizado para las operaciones militares más sensibles. "La única razón por la que todavía estamos hablando con estas personas es que los necesitamos y los necesitamos ahora," le dijo un oficial de defensa a Axios. Se informa que el modelo fue utilizado durante operaciones militares recientes en Venezuela, un tema que Amodei ha planteado con el socio de defensa Palantir.
Se informa que Anthropic ha ofrecido adaptar sus políticas de uso para el Pentágono pero ha trazado límites contra permitir que el modelo sea utilizado para vigilancia masiva de estadounidenses o sistemas de armas que disparen sin participación humana. Si esos límites se mantienen ante la presión del gobierno sigue siendo una pregunta abierta.
La Preocupación del Efecto de Cocción Lenta
Los investigadores de seguridad han expresado una variedad de reacciones. Chris Painter, director de la organización sin fines de lucro METR, describió los cambios como comprensibles pero potencialmente ominosos. Elogió el énfasis en reportes de riesgo transparentes pero planteó preocupaciones sobre un efecto de "cocción lenta" — la idea de que cuando las líneas de seguridad duras se vuelven directrices flexibles, cada concesión individual parece razonable mientras la dirección acumulativa es inquietante.
Painter señaló que el nuevo RSP sugiere que Anthropic "cree que necesita cambiar a modo de triaje con sus planes de seguridad, porque los métodos para evaluar y mitigar el riesgo no están manteniéndose al ritmo de las capacidades." Agregó sin rodeos: "Esta es más evidencia de que la sociedad no está preparada para los riesgos potencialmente catastróficos que plantea la IA."
El paralelo con la evolución de Google es difícil de ignorar. El gigante de búsqueda famosamente operó bajo el lema "No seas malo" antes de silenciosamente removerlo de su código de conducta cuando las presiones comerciales se intensificaron. Si la trayectoria de Anthropic sigue un arco similar dependerá de lo que la empresa haga en las próximas semanas y meses — particularmente en su enfrentamiento con el Pentágono.
Lo Que Viene Después
El nuevo marco RSP reemplaza las decisiones binarias de parar/continuar con evaluaciones graduadas y divulgaciones públicas. En teoría, esto proporciona gobernanza de seguridad más matizada. En la práctica, los críticos se preocupan de que elimine el único mecanismo que podría haber forzado una pausa en el desarrollo en un momento crítico.
Para la industria de IA más amplia, el mensaje es claro: incluso las empresas más vocales en su compromiso con la seguridad están descubriendo que ese compromiso es difícil de mantener cuando las valoraciones se disparan, la competencia se intensifica, y el gobierno llama. La pregunta no es si el desarrollo de IA se ralentizará — claramente no lo hará. Es si los guardacarriles que se están reconstruyendo son lo suficientemente fuertes para importar.
Este artículo se basa en reportes de Engadget. Lea el artículo original.


