La crítica más sólida a “la IA lo arreglará” no es anti tecnología

La inteligencia artificial se comercializa cada vez más como una solución para problemas en la educación, la agricultura, el empleo y la prestación de servicios públicos. Ese enfoque resulta seductor porque reduce fallos sociales complejos a un desafío de ingeniería manejable. Si las instituciones son lentas, están infrafinanciadas o fragmentadas, la promesa de un modelo receptivo parece casi irresistible.

Pero un ensayo publicado por Rest of World sostiene que ese planteamiento pasa por alto la realidad central de los sistemas sociales: la capacidad técnica por sí sola no basta. Incluso las herramientas de IA más sofisticadas necesitan apoyo humano, capacidad institucional y rendición de cuentas local si van a hacer algo más que generar demostraciones impresionantes.

El artículo, escrito por los investigadores de Cornell Deepak Varuvel Dennison y Aditya Vashistha, no niega el potencial real de la IA. Reconoce explícitamente la creciente evidencia de mejoras de productividad y el atractivo de la IA tanto en el sector privado como en el público. Su argumento es más limitado y más importante: desplegar IA en comunidades desatendidas no es lo mismo que resolver sus problemas.

La contradicción en el centro de la IA para el bien

El ensayo pone de relieve una tensión estructural. A menudo se presenta la IA como una herramienta para abordar la desigualdad, la exclusión y las carencias de servicios. Sin embargo, los propios sistemas están moldeados por cadenas de suministro extractivas, poder concentrado y desigualdades existentes. Retomando temas asociados con libros como AI Snake Oil y Atlas of AI, los autores sitúan la IA no como una capa de software neutral, sino como un sistema sociotécnico construido sobre recursos naturales, trabajo humano e instituciones arraigadas.

Eso importa porque las comunidades a las que más a menudo se dirigen los proyectos de “IA para el bien social” son también las que más probabilidades tienen de asumir los costos de intervenciones mal diseñadas. Un modelo que parece eficiente a distancia todavía puede fallar localmente si ignora el idioma, la confianza, el acceso, la gobernanza o los intermediarios humanos necesarios para actuar sobre sus resultados.

La pregunta central, entonces, no es si la IA puede ayudar. Es qué condiciones deben existir para que ayude de manera duradera y responsable.