Quand les objectifs d’adoption de l’IA commencent à façonner les comportements

Selon des informations rapportées, des employés d’Amazon utilisent un outil interne d’IA pour automatiser des tâches non essentielles afin d’augmenter l’usage apparent des systèmes d’IA de l’entreprise. Cette pratique, décrite dans un article publié par Ars Technica à partir du Financial Times, est appelée en interne « tokenmaxxing ». Le nom est moqueur, mais le problème sous-jacent est sérieux : lorsque la direction met l’accent sur l’adoption de l’IA comme indicateur, les gens peuvent optimiser l’indicateur plutôt que le travail utile.

Selon le rapport, Amazon déploie largement un produit interne appelé MeshClaw, qui permet aux employés de créer des agents d’IA connectés aux logiciels de travail et de leur faire exécuter des tâches à la place de l’utilisateur. Plusieurs employés ont indiqué que des collègues utilisaient le système pour générer une activité d’IA supplémentaire et inutile afin d’augmenter la consommation de tokens, les unités de données traitées par les modèles.

Les incitations derrière ce comportement

L’article indique qu’Amazon a instauré des objectifs visant à ce que plus de 80 % des développeurs utilisent l’IA chaque semaine et a commencé plus tôt cette année à suivre la consommation de tokens d’IA sur des classements internes. Même si, selon le rapport, Amazon a dit aux employés que les statistiques de tokens ne seraient pas utilisées dans les évaluations de performance, plusieurs membres du personnel ont déclaré penser que les managers surveillaient quand même ces données.

C’est exactement le type d’ambiguïté qui favorise les usages performatifs. Si les travailleurs pensent qu’un comportement mesuré peut influer sur leur situation, ils chercheront souvent à maximiser le signal visible, même lorsque l’activité sous-jacente n’apporte que peu ou pas de valeur. Dans ce cas, cela peut signifier utiliser l’IA pour accomplir des tâches qui n’avaient pas besoin d’automatisation ou produire de l’activité surtout pour que les indicateurs reflètent une participation.

Le rapport cite un employé affirmant qu’il y avait « énormément de pression » pour utiliser les outils, et un autre disant que les managers regardaient les données d’usage. Que ces statistiques influencent formellement ou non les évaluations, le simple fait qu’elles soient perçues comme importantes peut suffire à remodeler les comportements au travail. Les indicateurs n’ont pas besoin d’être des critères officiels de performance pour devenir des signaux de pouvoir informels.

Pourquoi cela compte au-delà d’Amazon

Les détails propres à Amazon sont remarquables, mais le problème de fond dépasse largement une seule entreprise. Dans l’ensemble du secteur technologique, les entreprises tentent de démontrer le retour sur de lourds investissements dans l’IA tout en poussant simultanément les outils génératifs plus profondément dans les flux de travail quotidiens. Dans cet environnement, les chiffres d’adoption peuvent devenir un substitut à l’élan stratégique.

Le problème est que l’adoption n’est pas la productivité. Une équipe peut générer des chiffres d’usage impressionnants sans produire de gains correspondants en production, en qualité ou en vitesse. En effet, si les employés commencent à automatiser des tâches à faible valeur simplement pour faire monter le nombre de tokens, les données qui en résultent peuvent induire la direction en erreur en donnant l’impression que l’engagement avec l’outil est plus sain qu’il ne l’est réellement.

MeshClaw et la montée des logiciels de bureau agentiques

MeshClaw d’Amazon est présenté comme un système permettant aux employés de créer des agents d’IA capables de se connecter aux logiciels de travail et d’agir au nom d’un utilisateur. Cela l’inscrit dans un mouvement plus large vers des outils d’entreprise agentiques, où les modèles ne se contentent pas de répondre à des questions, mais lancent des actions, déplacent des informations entre systèmes et gèrent des tâches opérationnelles.

L’attrait de tels outils est évident. Ils promettent un effet de levier : moins d’étapes manuelles, des tâches accomplies plus rapidement et la possibilité de déléguer un travail numérique répétitif. Mais ils créent aussi une nouvelle surface de reporting au sein des organisations. Si chaque action peut être comptée, chaque employé classé et chaque token tracé, alors l’usage de l’IA devient lui-même un objet managérial.

Le rapport note qu’Amazon a récemment limité l’accès aux statistiques à l’échelle de l’équipe afin que seuls les employés et les managers puissent voir les données. Ce changement suggère que l’entreprise essaie peut-être déjà d’ajuster l’effet de la visibilité sur les comportements. Une fois qu’une culture de classements s’installe autour d’outils internes d’IA, il devient difficile de distinguer l’expérimentation réelle de la recherche de points.

Un contexte coûteux pour la pression interne

La pression s’inscrit dans un contexte de dépenses massives. Le rapport indique qu’Amazon devrait consacrer cette année 200 milliards de dollars en dépenses d’investissement, dont la grande majorité ira à l’IA et à l’infrastructure des centres de données. Un tel engagement financier accroît naturellement la pression pour montrer l’utilisation. La direction veut des preuves que l’infrastructure coûteuse n’est pas inutilisée.

De ce point de vue, les comptages de tokens sont séduisants. Ils sont immédiats, quantifiables et faciles à comparer. Mais ce sont aussi des proxies superficiels. Un total élevé de tokens peut refléter une aide au codage productive, des expérimentations gaspillées, des tâches dupliquées ou du tokenmaxxing pur et simple. Sans mesures de résultats plus solides, les données d’usage peuvent raconter une histoire confiante mais incomplète.

La leçon de management

La leçon la plus importante ici n’est pas que des employés aient truqué un indicateur. Les employés truquent des indicateurs tout le temps lorsque les incitations le rendent rationnel. La vraie leçon est que les organisations doivent être précises sur ce qu’elles récompensent. Si l’objectif est un meilleur logiciel, des livraisons plus rapides ou de meilleures opérations internes, alors ces résultats doivent être mesurés le plus directement possible. Si la cible mesurée est simplement « utiliser davantage l’IA », les travailleurs trouveront des moyens de le faire exactement ainsi.

Cela ne signifie pas que les données d’usage sont inutiles. Elles peuvent montrer si les outils sont découverts, où le déploiement est inégal, ou quelles équipes ont besoin d’aide. Mais lorsque la visibilité et la pression augmentent plus vite que la clarté sur la valeur, l’indicateur devient un jeu. Le terme « tokenmaxxing » constitue un avertissement utile pour ce mode d’échec.

Un signe de la prochaine tension au travail liée à l’IA

Pendant des années, le débat sur l’IA au travail portait sur la question de savoir si les employés adopteraient les outils tout court. L’épisode Amazon suggère que la prochaine phase pourrait être différente : comment empêcher le théâtre de la suradoption, les incitations à un usage superficiel et les tableaux de bord internes de déformer les comportements. À mesure que les entreprises cherchent à prouver que leurs investissements dans l’IA portent leurs fruits, elles pourraient découvrir que mesurer l’usage est la partie facile. Mesurer l’usage utile est plus difficile.

Cette distinction comptera sans doute davantage à mesure que l’IA d’entreprise deviendra la norme. Les organisations qui la gèrent bien ne seront pas celles qui affichent les plus gros chiffres de tokens. Ce seront celles qui savent faire la différence entre un vrai levier et un bruit coûteux.

Cet article s’appuie sur un reportage de Ars Technica. Lire l’article original.

Originally published on arstechnica.com