La critique la plus solide du “l’IA va résoudre le problème” n’est pas anti technologique

L’intelligence artificielle est de plus en plus présentée comme un remède aux problèmes de l’éducation, de l’agriculture, de l’emploi et de la prestation des services publics. Ce cadrage est séduisant parce qu’il transforme des échecs sociaux complexes en défi d’ingénierie maîtrisable. Si les institutions sont lentes, sous-financées ou fragmentées, la promesse d’un modèle réactif paraît presque irrésistible.

Mais un essai publié par Rest of World soutient que ce cadrage manque la réalité centrale des systèmes sociaux : la capacité technique seule ne suffit pas. Même des outils d’IA sophistiqués ont besoin de soutien humain, de capacité institutionnelle et de redevabilité locale s’ils doivent faire plus que produire des démonstrations impressionnantes.

L’article, rédigé par les chercheurs de Cornell Deepak Varuvel Dennison et Aditya Vashistha, ne nie pas le véritable potentiel de l’IA. Il reconnaît explicitement les preuves croissantes de gains de productivité et l’attrait de l’IA dans les secteurs privé et public. Son argument est plus étroit et plus important : déployer l’IA dans des communautés mal desservies n’est pas la même chose que résoudre leurs problèmes.

La contradiction au cœur de l’IA pour le bien commun

L’essai met en lumière une tension structurelle. L’IA est souvent présentée comme un outil pour lutter contre les inégalités, l’exclusion et les manques de services. Pourtant, les systèmes eux-mêmes sont façonnés par des chaînes d’approvisionnement extractives, une concentration du pouvoir et des inégalités existantes. En s’appuyant sur des thèmes associés à des ouvrages comme AI Snake Oil et Atlas of AI, les auteurs présentent l’IA non comme une couche logicielle neutre, mais comme un système socio technique bâti sur des ressources naturelles, du travail humain et des institutions enracinées.

Cela compte, car les communautés les plus souvent visées par les projets d’“IA pour le bien social” sont aussi celles qui risquent le plus d’en supporter les coûts lorsqu’ils sont mal conçus. Un modèle qui semble efficace de loin peut malgré tout échouer localement s’il ignore la langue, la confiance, l’accès, la gouvernance ou les intermédiaires humains nécessaires pour agir sur ses résultats.

La question centrale n’est donc pas de savoir si l’IA peut aider. C’est de savoir quelles conditions doivent exister pour qu’elle aide de manière durable et responsable.