Las Denuncias Se Globalizan

En las últimas semanas, la industria de la IA ha sido testigo de una creciente ola de disidencia pública desde sus propias filas. Ex trabajadores de seguridad e investigadores de algunas de las compañías de IA más prominentes del mundo, incluidas OpenAI y Anthropic, han salido públicamente con preocupaciones sobre cómo sus empleadores manejan las pruebas de seguridad, despliegan modelos y responden a advertencias internas sobre riesgos potenciales. Estas revelaciones han generado un intenso debate sobre la idoneidad de las prácticas de seguridad en IA y si el rápido ritmo de desarrollo de la industria está superando su capacidad para garantizar que los sistemas poderosos se desplieguen de manera responsable.

Ahora una nueva iniciativa está intentando formalizar y proteger este tipo de reportes internos a escala global. Psst, una plataforma digital de reporte seguro, permite a los trabajadores de IA en cualquier parte del mundo documentar y enviar preocupaciones de seguridad a través de un canal seguro, incluso en jurisdicciones que carecen de leyes robustas de protección de denunciantes. La miembro fundadora de la junta directiva de la plataforma, la abogada Mary Inman, dice que el objetivo es asegurarse de que los trabajadores de las empresas de IA puedan hablar sobre daños potenciales sin temor a represalias, independientemente de dónde se encuentren.

Por Qué Importa la Geografía

Las protecciones para denunciantes varían enormemente entre países. En los Estados Unidos, las leyes federales y estatales ofrecen cierta protección a los empleados que denuncian irregularidades, aunque su efectividad y alcance son temas de debate continuo. En la Unión Europea, una directiva de denunciantes adoptada en 2019 proporciona una base de protecciones en todos los estados miembros, aunque la implementación ha sido desigual.

Pero el desarrollo de IA es una actividad global. Los principales laboratorios de IA operan oficinas de investigación y contratan talento en docenas de países, muchos de los cuales tienen leyes mínimas o inexistentes de protección de denunciantes. Un investigador de seguridad en Singapur, India o los Emiratos Árabes Unidos que descubra prácticas preocupantes en su empleador puede no tener ninguna vía legal para reportar esas preocupaciones sin arriesgar su carrera, o algo peor.

Psst está diseñado para llenar este vacío proporcionando una solución basada en tecnología a un problema de gobernanza. Al ofrecer canales de reporte cifrados y anónimos accesibles desde cualquier país, la plataforma busca crear una red de seguridad que opere independientemente de cualquier marco legal nacional. Los reportes enviados a través de la plataforma pueden dirigirse a los organismos reguladores apropiados, investigadores académicos u organizaciones de interés público según la naturaleza y gravedad de la preocupación.

La Ola de Revelaciones de Seguridad en IA

El momento de la aparición de Psst es significativo. El año pasado fue testigo de un volumen sin precedentes de revelaciones públicas por parte de empleados actuales y anteriores de las principales empresas de IA. La salida de Mrinank Sharma de Anthropic y sus declaraciones públicas posteriores sobre prácticas de seguridad atrajeron amplia atención, al igual que múltiples ex empleados de OpenAI que cuestionaron si las presiones comerciales de la empresa estaban comprometiendo sus compromisos de seguridad.

Estas revelaciones generalmente provienen de personas con la seguridad financiera, el estatus migratorio y la reputación profesional para absorber los costos personales de hablar públicamente. La gran mayoría de los trabajadores de IA que tienen preocupaciones similares carecen de estas protecciones y permanecen en silencio. La tesis de Psst es que las preocupaciones reveladas representan solo la punta del iceberg, y que un mecanismo de reporte seguro podría dar a conocer una imagen mucho más amplia de los problemas de seguridad en toda la industria.

El Desafío de la Verificación

Uno de los desafíos fundamentales que enfrenta cualquier plataforma de denunciantes es la verificación. Los reportes anónimos, aunque protegen al denunciante, pueden ser difíciles de corroborar y fáciles de desestimar. Las empresas acusadas de fallas de seguridad pueden argumentar que las afirmaciones anónimas carecen de credibilidad, mientras que la ausencia de un acusador nombrado dificulta que los reguladores o periodistas investiguen.

Psst está intentando abordar esto construyendo relaciones con intermediarios de confianza que puedan evaluar la credibilidad de los reportes sin exponer la identidad del denunciante. La plataforma también alienta a los trabajadores a enviar documentación —correos electrónicos internos, resultados de pruebas, notas de reuniones, documentos de política— que pueda respaldar sus preocupaciones independientemente de su testimonio personal.

Respuesta de la Industria y los Reguladores

La reacción de las empresas de IA al creciente movimiento de denunciantes ha sido variada. Algunas empresas se han comprometido públicamente a proteger a los empleados que plantean preocupaciones de seguridad a través de canales internos, mientras que otras han utilizado acuerdos de no divulgación y otros instrumentos legales que los críticos dicen que tienen un efecto paralizante sobre la disidencia interna.

Los reguladores están observando de cerca. La Ley de IA de la Unión Europea incluye disposiciones relacionadas con la transparencia y la responsabilidad que podrían crear canales formales para los reportes de seguridad. En los Estados Unidos, las audiencias del Congreso sobre seguridad en IA han tocado la necesidad de protecciones específicas de denunciantes para la industria de IA, aunque no se ha promulgado ninguna legislación integral.

Qué Significa Esto para el Desarrollo de IA

El surgimiento de infraestructura dedicada para denunciantes de IA refleja una maduración del debate sobre seguridad en IA, pasando de discusiones filosóficas abstractas a cuestiones prácticas de gobernanza. A medida que los sistemas de IA se vuelven más poderosos y más profundamente integrados en infraestructuras críticas, atención médica, finanzas y aplicaciones de defensa, las consecuencias de prácticas de seguridad inadecuadas se vuelven cada vez más graves.

Psst e iniciativas similares representan un reconocimiento de que la gobernanza efectiva de IA no puede depender únicamente de que las empresas se autocontrolen o de que los gobiernos regulen desde afuera. Requiere mecanismos que empoderen a las personas más cercanas a la tecnología —los investigadores e ingenieros que construyen estos sistemas— para dar la alarma cuando ven problemas, sin destruir sus propias carreras en el proceso.

Si tales plataformas pueden influir significativamente en el comportamiento de la industria está por verse. Pero en una era en la que el ritmo del desarrollo de IA supera constantemente el ritmo de la regulación de IA, las plataformas de denunciantes pueden servir como un importante sistema de alerta temprana, revelando preocupaciones que de otro modo permanecerían ocultas hasta que se manifiesten como daños reales.

Este artículo está basado en reportajes de Rest of World. Leer el artículo original.