Oculto en la cadena de suministro

Una investigación de Rest of World ha revelado que trabajadores de gig en toda África que fueron contratados a través de la plataforma de etiquetado de datos Appen para realizar tareas de anotación rutinaria — identificar objetos en imágenes, transcribir audio, categorizar texto — estaban contribuyendo sin saberlo a sistemas AI utilizados por el ejército de Estados Unidos. Los trabajadores, muchos de los cuales ganaban solo unos pocos dólares por hora, no tenían idea de que su trabajo se estaba alimentando en aplicaciones de defensa e inteligencia.

La revelación expone un aspecto preocupante de la cadena de suministro de AI: la vasta fuerza laboral de anotadores humanos cuyo trabajo es esencial para entrenar sistemas de machine learning a menudo se mantiene deliberadamente en la ignorancia sobre cómo se utiliza finalmente su trabajo. La desconexión entre las personas que etiquetan los datos y las organizaciones que despliegan los sistemas AI resultantes plantea serias preguntas éticas sobre consentimiento informado, prácticas laborales e infraestructura humana oculta de tecnología militar.

Cómo funciona el etiquetado de datos para el ejército

Los sistemas AI modernos, particularmente aquellos utilizados para reconocimiento de imágenes, procesamiento de lenguaje natural y apoyo a la toma de decisiones, requieren enormes cantidades de datos de entrenamiento etiquetados. Alguien debe mirar miles de imágenes satelitales y dibujar cuadros alrededor de vehículos. Alguien debe escuchar horas de audio y transcribir lo que oye. Alguien debe leer texto y categorizarlo por tema, sentimiento o intención.

Este trabajo típicamente se subcontrata a través de una cadena de intermediarios. Un contratista de defensa podría contratar a una empresa de tecnología para desarrollar un sistema AI. Esa empresa podría subcontratar el etiquetado de datos a una plataforma como Appen, que a su vez distribuye el trabajo a freelancers alrededor del mundo, muchos de ellos en países donde los costos laborales son una fracción de lo que son en Estados Unidos o Europa.

En cada paso de esta cadena, el uso final del dato se vuelve más oscuro. Los trabajadores de gig en la base de la pirámide ven tareas individuales — etiquetar esta imagen, transcribir este clip de audio — sin contexto sobre el sistema más amplio que están ayudando a construir. Los términos de servicio y acuerdos de confidencialidad de Appen a menudo prohíben a los trabajadores conocer la identidad del cliente final, mucho menos la aplicación que respalda su trabajo.

Lo que los trabajadores estaban etiquetando

La investigación encontró que trabajadores de gig africanos estaban realizando una variedad de tareas de anotación que se alinean con aplicaciones militares conocidas de AI. Estas incluían identificar y clasificar objetos en imágenes aéreas y satelitales — una capacidad central para sistemas militares de vigilancia y targeting. Los trabajadores también estaban involucrados en transcribir y categorizar datos de comunicaciones, y en etiquetar características geoespaciales en imágenes de mapeo.

Ninguno de los trabajadores entrevistados por Rest of World fueron informados de que su trabajo estaba conectado a aplicaciones militares o de inteligencia. Varios expresaron shock e incomodidad al enterarse del uso final de su trabajo, con algunos diciendo que no hubieran aceptado el trabajo de haberlo sabido.

Las implicaciones éticas son particularmente punzantes dado el contexto geopolítico. Algunos de los trabajadores se encuentran en países que han experimentado operaciones militares de EE.UU. o que tienen relaciones complicadas con la política exterior estadounidense. La idea de que su trabajo podría estar contribuyendo a capacidades militares dirigidas a regiones similares a sus propias comunidades fue profundamente preocupante para varios de los trabajadores entrevistados.

  • Trabajadores de gig en África fueron contratados a través de Appen para etiquetar datos que alimentaron sistemas AI militares de EE.UU.
  • Los trabajadores fueron pagados una fracción de los salarios occidentales y no tenían conocimiento del uso militar final
  • La cadena de subcontratación multicapa deliberadamente oscurece la aplicación final del trabajo de etiquetado de datos
  • Los trabajadores expresaron shock e incomodidad al enterarse de cómo se estaba utilizando su trabajo

El rol de Appen en la cadena de suministro de AI

Appen, una empresa australiana que una vez fue una de las plataformas de anotación de datos más grandes del mundo, ha servido durante mucho tiempo como intermediaria crítica en la cadena de suministro de AI. La empresa mantuvo una fuerza laboral global de más de un millón de contratistas en su apogeo, proporcionando datos etiquetados a empresas de tecnología, agencias gubernamentales y contratistas de defensa.

La empresa ha enfrentado dificultades financieras en años recientes mientras la industria de etiquetado de datos se ha vuelto más competitiva y mientras algunas empresas de AI han movido el trabajo de anotación internamente. Pero sus contratos históricos con clientes de defensa e inteligencia significan que cantidades significativas de datos etiquetados por su fuerza laboral global ya han sido incorporados en sistemas AI militares.

Los defensores de Appen argumentan que la empresa opera dentro de la ley y que sus contratos con clientes incluyen disposiciones apropiadas para seguridad de datos y confidencialidad. Los críticos contraargumentan que las disposiciones de confidencialidad que impiden a los trabajadores saber en qué están trabajando son inherentemente explotadores, particularmente cuando el trabajo implica aplicaciones militares que los trabajadores podrían encontrar moralmente objetables.

La ética del trabajo invisible

La investigación destaca un desafío ético más amplio en la industria de AI. El sector tecnológico ha sido notablemente efectivo en hacer invisible el trabajo humano detrás de sistemas AI. Cuando un sistema AI militar identifica correctamente un objetivo en una imagen satelital, el crédito va al algoritmo y a los ingenieros que lo diseñaron. Los miles de anotadores humanos cuyo trabajo hizo posible el sistema raramente son reconocidos, y mucho menos consultados sobre cómo se utiliza el sistema.

Los defensores de derechos laborales han pedido mayor transparencia en la cadena de suministro de AI, incluyendo requisitos de que los trabajadores de etiquetado de datos sean informados sobre la categoría general de aplicación que respalda su trabajo. Algunos han propuesto esquemas de certificación, similares a etiquetas de comercio justo, que verificarían que los datos de entrenamiento de AI fueron producidos bajo condiciones laborales éticas con consentimiento informado del trabajador.

Implicaciones para la gobernanza de AI

La revelación también tiene implicaciones para el creciente debate internacional sobre gobernanza de AI. A medida que los gobiernos desarrollan marcos para regular sistemas AI, la cuestión de cómo se obtienen y etiquetan los datos de entrenamiento ha recibido relativamente poca atención comparada con problemas como sesgo algorítmico y pruebas de seguridad.

El uso de trabajo extranjero involuntario para entrenar sistemas AI militares podría convertirse en un punto de conflicto en negociaciones internacionales sobre gobernanza de AI, particularmente a medida que naciones en desarrollo impulsan mayor reconocimiento de su rol en — y mayor beneficio de — la economía global de AI. Si los trabajadores que hacen posible el AI ni siquiera saben qué están construyendo, la fundación de la industria de AI descansa en una asimetría moral preocupante.

Para los trabajadores de gig en África que descubrieron la verdadera naturaleza de su trabajo, la experiencia cristalizó una conciencia creciente de que la economía global de AI depende de su trabajo pero no se siente obligada a incluirlos en decisiones sobre cómo se utiliza ese trabajo.

Este artículo se basa en reportajes de Rest of World. Lee el artículo original.