Una instrucción extraña que dice algo serio
Una de las líneas más comentadas de las herramientas de programación de OpenAI esta semana no trataba sobre calidad de software, seguridad o latencia. Trataba sobre duendes. Según informó Wired, las instrucciones en Codex CLI indican explícitamente al modelo que no hable de duendes, gremlins, mapaches, trolls, ogros, palomas u otras criaturas salvo que el tema sea claramente relevante para la solicitud del usuario.
A primera vista, parece una broma interna que se coló en producción. En la práctica, revela algo más importante: el comportamiento de los modelos ahora no solo está siendo moldeado por el entrenamiento y la arquitectura, sino también por barandillas operativas muy específicas diseñadas para suprimir patrones recurrentes que los usuarios siguen encontrando en la práctica.
Eso importa porque los extraños casos límite de los asistentes de IA ya no se limitan a demostraciones de investigación. Los agentes de programación ahora se están posicionando como herramientas serias de productividad. Cuando los proveedores los empujan a entornos de línea de comandos, flujos de automatización de escritorio o sistemas agénticos que pueden actuar en distintas aplicaciones, incluso pequeños caprichos recurrentes pueden convertirse en problemas de nivel producto.
De rareza del modelo a requisito de producto
Según la cobertura de Wired, usuarios en X dijeron que los modelos de OpenAI a veces se obsesionaban con duendes y criaturas similares, especialmente cuando se combinaban con OpenClaw, una herramienta que permite que la IA controle una computadora y aplicaciones para completar tareas. Algunos usuarios describieron el comportamiento como humorístico. Otros lo tomaron como un modo de fallo reconocible. En cualquier caso, la respuesta de OpenAI parece haber sido sencilla: escribir la prohibición directamente en las instrucciones.
El resultado ofrece una instantánea útil de cómo se ajustan en realidad los productos modernos de IA. La narrativa pública limpia sobre la capacidad del modelo suele enfatizar métricas, razonamiento y éxito en tareas del mundo real. Debajo de esa capa hay otra: ingeniería de instrucciones para evitar comportamientos que son técnicamente inofensivos pero, en la práctica, disruptivos. Si un modelo se desvía repetidamente hacia metáforas no deseadas o lenguaje caprichoso al escribir código, eso puede erosionar la confianza, distraer a los usuarios y hacer que el sistema parezca inestable incluso cuando la salida técnica subyacente es correcta.
En otras palabras, “no mencionar duendes” no va realmente de duendes. Va de fiabilidad. Los usuarios quieren un asistente de programación que se mantenga en la tarea, conserve un tono profesional y no introduzca obsesiones temáticas aleatorias en flujos de trabajo que se supone que ahorran tiempo.


