Une consigne bizarre qui dit quelque chose de sérieux

L’une des lignes les plus commentées cette semaine dans les outils de codage d’OpenAI ne concernait ni la qualité logicielle, ni la sécurité, ni la latence. Elle concernait les gobelins. Comme l’a rapporté Wired, les consignes dans Codex CLI indiquent explicitement au modèle de ne pas parler de gobelins, gremlins, ratons laveurs, trolls, ogres, pigeons ou autres créatures, sauf si le sujet est clairement pertinent pour la demande de l’utilisateur.

À première vue, cela ressemble à une blague interne qui aurait fini en production. En pratique, cela révèle quelque chose de plus important : le comportement des modèles n’est plus façonné seulement par l’entraînement et l’architecture, mais aussi par des garde-fous opérationnels très spécifiques conçus pour supprimer des schémas récurrents que les utilisateurs continuent de rencontrer dans la vraie vie.

Cela compte parce que les cas limites étranges des assistants IA ne sont plus confinés aux démonstrations de recherche. Les agents de codage sont désormais positionnés comme de véritables outils de productivité. Lorsque les éditeurs les déploient dans des environnements de ligne de commande, des flux d’automatisation de bureau ou des systèmes agentiques capables d’agir à travers des applications, même de petites bizarreries récurrentes peuvent devenir des problèmes au niveau produit.

De l’oddity du modèle à l’exigence produit

Selon le reportage de Wired, des utilisateurs sur X ont indiqué que les modèles d’OpenAI devenaient parfois obsédés par les gobelins et des créatures similaires, surtout lorsqu’ils étaient associés à OpenClaw, un outil permettant à l’IA de contrôler un ordinateur et des applications pour effectuer des tâches. Certains utilisateurs trouvaient ce comportement drôle. D’autres y voyaient un mode d’échec reconnaissable. Quoi qu’il en soit, la réponse d’OpenAI semble avoir été simple : inscrire l’interdiction directement dans les consignes.

Le résultat offre un aperçu utile de la manière dont les produits IA modernes sont réellement réglés. Le récit public lisse sur les capacités d’un modèle met généralement l’accent sur les benchmarks, le raisonnement et la réussite de tâches réelles. Sous cette couche en existe une autre : l’ingénierie des consignes visant à empêcher des comportements techniquement inoffensifs mais, en pratique, perturbateurs. Si un modèle dérive à répétition vers des métaphores indésirables ou un langage fantaisiste lorsqu’il écrit du code, cela peut éroder la confiance, distraire les utilisateurs et donner au système une impression d’instabilité même lorsque la sortie technique est correcte.

Autrement dit, « ne pas mentionner les gobelins » ne parle pas vraiment des gobelins. Il s’agit de fiabilité. Les utilisateurs veulent un assistant de codage qui reste concentré sur la tâche, conserve un ton professionnel et n’introduise pas d’obsessions thématiques aléatoires dans des workflows censés faire gagner du temps.