OpenAIs neuestes Bildmodell scheint eine große Lücke geschlossen zu haben
Eine neue Runde von Bildgenerierungstests durch ZDNET deutet darauf hin, dass OpenAI einen deutlichen Sprung bei Bildqualität und Prompt-Verarbeitung gemacht hat. In einem am 27. April veröffentlichten Vergleich mit neun Tests erzielte ChatGPT Images 2.0 97 % und schlug damit Googles Gemini Nano Banana, das auf 85 % kam. Das Ergebnis ist wichtig, weil ein früherer Vergleich ChatGPT noch klar hinter Googles Bildsystem eingeordnet hatte. Diesmal drehte sich das Ranking um.
Der Ausgangsartikel stellt das Ergebnis als mehr dar als nur einen einfachen Modell-gegen-Modell-Wettstreit. Er argumentiert, dass OpenAIs Update nicht nur schrittweise besser ist, sondern sich in Bereichen, die für den Alltag zählen, dramatisch verbessert hat: Anweisungen befolgen, Text in Bildern verarbeiten und Ausgaben eng am ursprünglichen Prompt ausrichten. Genau diese Aufgaben trennen oft eine spektakuläre Demo von einem Werkzeug, auf das man sich bei echter Arbeit verlassen kann.
Warum dieses Ergebnis heraussticht
Bildgenerierung ist zu einem der am schnellsten voranschreitenden Felder der KI geworden. Viele Systeme können inzwischen ansprechende Bilder erzeugen, doch Konsistenz bleibt das schwierigere Problem. Nutzer wollen nicht nur etwas optisch Beeindruckendes. Sie wollen ein System, das den Kontext versteht, Vorgaben einhält und nicht vom Gewünschten abweicht.
Laut dem bereitgestellten Quelltext zeigte ChatGPT Images 2.0 genau dort die größten Fortschritte. ZDNET schrieb, das Modell habe sich “dramatically” verbessert, und hob insbesondere ein besseres Kontextverständnis hervor. Der Artikel betonte außerdem die Texterkennung bzw. Textdarstellung, ein Bereich, in dem Bildmodelle historisch zu kämpfen hatten. Wenn ein Modell lesbaren, passenden Text in ein Bild einfügen kann und dabei dem Prompt treu bleibt, wird es deutlich nützlicher für Präsentationen, Mockups, Diagramme, Bildungsvisualisierungen und leichte Designaufgaben.
Googles Nano Banana brach im Vergleich nicht ein. Eine Bewertung von 85 % spricht weiterhin für ein leistungsfähiges System. Der Bericht sagt jedoch, dass es bei Prompt-Disziplin und Textverarbeitung stolperte, zwei Schwächen, die außerhalb des lockeren Experimentierens schnell zum Ausschlusskriterium werden können. Praktisch heißt das: Ein Nutzer kann zwar weiterhin ein beeindruckendes Bild von Googles Modell erhalten, verbringt aber womöglich mehr Zeit mit Korrekturen oder erneuten Durchläufen.







