Eine seltsame Anweisung, die etwas Ernstes verrät
Einer der meistdiskutierten Sätze in OpenAIs Coding-Tools in dieser Woche handelte nicht von Softwarequalität, Sicherheit oder Latenz. Es ging um Goblins. Wie Wired berichtete, weisen die Anweisungen in Codex CLI das Modell ausdrücklich an, nicht über Goblins, Gremlins, Waschbären, Trolle, Oger, Tauben oder andere Kreaturen zu sprechen, außer das Thema ist für die Anfrage des Nutzers klar relevant.
Auf den ersten Blick wirkt das wie ein Insiderwitz, der in die Produktion geraten ist. In der Praxis offenbart es etwas Wichtigeres: Das Verhalten von Modellen wird heute nicht nur durch Training und Architektur geprägt, sondern auch durch sehr spezifische operative Leitplanken, die wiederkehrende Muster unterdrücken sollen, auf die Nutzer in der Praxis immer wieder stoßen.
Das ist wichtig, weil die seltsamen Grenzfälle von KI-Assistenten längst nicht mehr auf Forschungsdemos beschränkt sind. Coding-Agents werden inzwischen als ernsthafte Produktivitätswerkzeuge positioniert. Wenn Anbieter sie in Kommandozeilenumgebungen, Desktop-Automationsflüsse oder agentische Systeme bringen, die über Anwendungen hinweg handeln können, können selbst kleine wiederkehrende Eigenheiten zu Problemen auf Produktebene werden.
Von Modell-Eigenheit zur Produktanforderung
Laut Wired sagten Nutzer auf X, OpenAIs Modelle würden manchmal von Goblins und ähnlichen Kreaturen besessen wirken, besonders in Verbindung mit OpenClaw, einem Tool, mit dem KI einen Computer und Apps steuern kann, um Aufgaben zu erledigen. Einige Nutzer empfanden das als humorvoll. Andere sahen darin einen wiedererkennbaren Fehlermodus. Wie auch immer: OpenAIs Reaktion scheint schlicht gewesen zu sein, das Verbot direkt in die Anweisungen zu schreiben.
Das Ergebnis liefert einen nützlichen Einblick darin, wie moderne KI-Produkte tatsächlich feinjustiert werden. Die saubere öffentliche Erzählung über Modellfähigkeiten betont meist Benchmarks, Schlussfolgerungen und reale Aufgabenerfolge. Darunter liegt eine weitere Ebene: Instruction Engineering, um Verhaltensweisen zu verhindern, die technisch harmlos, praktisch aber störend sind. Wenn ein Modell beim Schreiben von Code wiederholt in unerwünschte Metaphern oder verspielte Sprache abgleitet, kann das Vertrauen untergraben, Nutzer ablenken und das System instabil erscheinen lassen, selbst wenn die technische Ausgabe korrekt ist.
Mit anderen Worten: „Erwähne keine Goblins“ geht eigentlich nicht um Goblins. Es geht um Zuverlässigkeit. Nutzer wollen einen Coding-Assistenten, der bei der Aufgabe bleibt, professionell klingt und keine zufälligen thematischen Obsessionen in Arbeitsabläufe einbringt, die Zeit sparen sollen.


