Stärkere Modelle schnitten besser ab, und die Nutzer bemerkten es nicht

Ein internes Experiment von Anthropic deutet darauf hin, dass bereits eine subtile, aber wichtige Form von KI-Ungleichheit entsteht: Menschen, die von stärkeren Modellen vertreten werden, können bessere Ergebnisse erzielen, ohne dass ihr Umfeld den Unterschied bemerkt. Dem bereitgestellten Quelltext zufolge führte Anthropic im Dezember 2025 einen einwöchigen internen Marktplatz namens „Project Deal“ durch, bei dem 69 Mitarbeitende Claude-basierte KI-Agenten nutzten, um über Slack echte Waren zu kaufen und zu verkaufen.

Jede teilnehmende Person erhielt ein Budget von 100 Dollar. Vor Öffnung des Marktplatzes befragte Claude die Freiwilligen dazu, was sie kaufen oder verkaufen wollten, welche Preisvorstellungen sie hatten und welchen Verhandlungsstil ihr Agent verwenden sollte. Anthropic nutzte diese Angaben anschließend, um maßgeschneiderte System-Prompts zu erzeugen. Danach übernahmen die KI-Agenten den gesamten Prozess: Angebote schreiben, Gegenparteien finden, Offerten machen, feilschen und Transaktionen abschließen. Menschen griffen erst am Ende wieder ein, um die Waren auszutauschen.

Der entscheidende experimentelle Kniff war den Teilnehmenden verborgen. Anthropic spielte parallele Versionen des Marktplatzes aus. In einigen wurde jede Person von Claude Opus 4.5 vertreten, der im Quelltext als das damalige Frontier-Modell von Anthropic beschrieben wird. In anderen hatten die Teilnehmenden eine 50-prozentige Chance, von Claude Haiku 4.5 vertreten zu werden, dem kleinsten Modell des Unternehmens.

Das Ergebnis war nicht nur technisch. Es war sozial.

Dem Quelltext zufolge sicherte sich das leistungsfähigere Opus-Modell im Durchschnitt konsequent bessere Preise und schloss mehr Deals ab als Haiku. Zugleich führten aggressivere Verhandlungsanweisungen nicht zu einem statistisch signifikanten Unterschied bei den Ergebnissen. Anders gesagt: Die Modellfähigkeit war wichtiger als bloß zu sagen, das System solle härter feilschen.

Das widerspricht einer verbreiteten Annahme bei der Einführung von KI in Unternehmen, wo Organisationen manchmal davon ausgehen, dass Prompt-Stil oder oberflächliches Verhalten den Großteil des Werts bestimmen. Anthropics Befunde deuten darauf hin, dass die eigentliche Modellstärke wichtiger sein kann als der Ton. Wenn sich dieses Muster verallgemeinert, könnte die Qualität des Agenten selbst stillschweigend bestimmen, wer in digitalen Transaktionen günstige Konditionen erhält.

Der auffälligste Befund ist womöglich eher Wahrnehmungs- als Wirtschaftsfrage. Anthropic sagt, dass Nutzer mit schwächeren Haiku-Agenten, die objektiv schlechtere Ergebnisse erzielten, ihre Transaktionen dennoch als genauso fair bewerteten wie Nutzer, die von Opus vertreten wurden. Diese Diskrepanz bezeichnet das Unternehmen als eine Form von „unsichtbarer Ungleichheit“ bei KI-gestützter Entscheidungsfindung.

Das ist ein folgenschwerer Gedanke. Traditionelle Formen von Ungleichheit zeigen sich oft bei Preisen, Zugang oder Servicequalität. Was Anthropic anspricht, ist schwerer zu erkennen: Zwei Menschen können sich gleichermaßen zufrieden fühlen, während einer von ihnen systematisch schlechter von der Maschine vertreten wurde, die in seinem Namen handelte.