Un projet satirique a mis au jour une peur bien réelle au travail
Un projet GitHub devenu viral en Chine a cristallisé une anxiété croissante au sein du secteur technologique du pays : les travailleurs ont de plus en plus le sentiment qu’on leur demande d’aider à construire les systèmes susceptibles de les remplacer. Le projet, baptisé
Colleague Skill
, se présentait comme un moyen de cloner les compétences et la personnalité d’un collègue dans un agent d’IA réutilisable. Il s’agissait d’une parodie, mais la réaction a montré que le scénario semblait dangereusement plausible.Selon MIT Technology Review, des travailleurs ont déclaré au magazine que leurs patrons les encouragent déjà à documenter leurs flux de travail afin que des outils d’agents d’IA puissent automatiser des tâches et des processus précis. La blague a fait mouche parce qu’elle faisait écho à un modèle managérial émergent. Dans cette version de l’automatisation du travail, les employés ne font pas que s’adapter à de nouveaux logiciels. On leur demande de transformer leur propre expertise en instructions lisibles par machine.
Comment le projet fonctionne et pourquoi il a résonné
Les mécanismes rapportés de Colleague Skill expliquent en partie pourquoi il s’est diffusé si vite. Les utilisateurs nomment un collègue, ajoutent des informations de profil, importent des historiques de chat et des fichiers provenant d’applications professionnelles comme Lark et DingTalk, puis génèrent des manuels décrivant non seulement les tâches, mais aussi les particularités du style de communication. Le résultat est présenté comme un “collègue” IA portable capable d’aider à déboguer du code et à répondre instantanément.
Même en tant que coup médiatique, le projet a saisi un véritable changement dans la manière dont de nombreuses entreprises envisagent aujourd’hui le travail de connaissance. L’accent n’est plus seulement mis sur les chatbots généralistes. Il s’agit d’extraire des personnes un savoir-faire tacite sur les processus et de le transformer en actifs opérationnels répétables. Cela soulève une inquiétude différente de l’adoption ordinaire d’un logiciel. La menace n’est pas seulement la pression à l’efficacité. C’est la possibilité que des travailleurs individuels deviennent des modèles.
Une travailleuse de la tech à Shanghai, Amber Li, a déclaré au magazine avoir utilisé l’outil pour recréer un ancien collègue à titre d’expérience. Selon elle, le fichier généré reproduisait étonnamment bien les habitudes de la personne, y compris ses réactions et même son style de ponctuation. Cette plausibilité technique semble être l’une des raisons pour lesquelles le projet est devenu plus qu’une simple plaisanterie.

