Die KI-Grafiken-Revolution, kompliziert

Nvidia hat einen wesentlichen Teil seiner Consumer-GPU-Narrative auf DLSS — Deep Learning Super Sampling — gestützt, eine Suite von KI-gesteuerten Technologien, die neuronale Netzwerke verwenden, um hochwertige Frames aus niederauflösenden Eingaben zu rekonstruieren, völlig neue Frames zwischen gerenderten einzufügen und intelligentes Upscaling anzuwenden, um Frame-Raten zu erhöhen, ohne proportionale Erhöhungen der GPU-Auslastung. Mit DLSS 5 versprach das Unternehmen den dramatischsten Sprung bisher: Multi-Frame-Generierung, Transformer-basierte Superauflösung und eine neue neuronale Rendering-Pipeline, die den KI-Kernen der GPU praktisch Arbeiten ermöglicht, die siliziumbasierte Rasterisierung zuvor nicht konnte. Aber unabhängige Tests von Digital Foundry und anderen deuten darauf hin, dass die Technologie immer noch sinnvolle Wachstumsschmerzen hat.

Die Kernspannung ist eine, die DLSS seit seiner Einführung begleitet hat: Die KI generiert Informationen, die nicht im ursprünglichen gerenderten Frame waren, und manchmal generiert sie die falschen Informationen. Im Multi-Frame-Generierungsmodus von DLSS 5 kann das System zwei oder sogar drei KI-generierte Frames für jeden Frame erzeugen, den die GPU tatsächlich rendert. Der theoretische Leistungsmultiplikator ist enorm. Das praktische Ergebnis kann bei schnellbewegten oder visuell komplexen Szenen Ghosting-Artefakte, zeitliche Instabilität und das enthalten, was Kritiker KI-Slop nennen — visuelles Rauschen, das subtil falsch aussieht, ohne offensichtlich kaputt zu sein.

Was DLSS 5 eigentlich tut

Um zu verstehen, warum Artefakte auftreten, hilft es zu verstehen, was DLSS 5 wirklich berechnet. Die Super-Resolution-Komponente nimmt einen nativ gerenderten Frame mit niedrigerer Auflösung — sagen wir 1080p — und nutzt ein Convolutional Neural Network, das auf Tausenden von Spiel-Szenen trainiert wurde, um eine 4K-Ausgabe zu rekonstruieren. Dieser Teil der Pipeline hat sich seit DLSS 1.0 erheblich ausgereift, und der Transformer-basierte Ansatz von DLSS 4 stellte bereits eine signifikante Qualitätsverbesserung gegenüber früheren Convolutional-Modellen dar.

Frame-Generierung ist dort, wo DLSS 5 in riskierere Gebiete vordringt. Der optische Flow-Beschleuniger, der in Nvidias Ada- und Blackwell-GPUs eingebaut ist, analysiert Bewegungsvektoren zwischen benachbarten Frames, um abzuleiten, wo Objekte im interpolierten Frame sein werden. Dies funktioniert gut für sanfte Kameraschwenks und langsame Objektbewegungen. Es hat Schwierigkeiten mit schnell bewegten Projektilen, Partikeleffekten, schnellen Charakteranimationen und jedem Szenario, in dem die Bewegungsvorhersage inhärent unsicher ist.

Die subjektive Erfahrungslücke

Vielleicht die interessanteste Erkenntnis aus unabhängigen Tests ist, wie sich die Spielerfahrung mit DLSS 5 auf Maximum von der Aufzeichnung desselben Gameplays unterscheidet. Auf dem Bildschirm, in Echtzeit, liefert die erhöhte Frame-Rate eine echte Glätte, die viele Spieler überzeugend finden. Aber wenn Rezensenten Aufnahmen machen und diese in reduzierter Geschwindigkeit abspielen, werden die Artefakte offensichtlich: Frames, die verräterische Schmiereffekte, Ghosting von UI-Elementen enthalten, und Texturen, die leicht zu atmen scheinen, während das neuronale Netzwerk sie neu berechnet.

Dies wirft eine unbequeme Frage auf: Wenn eine Technologie Spiele in Echtzeit besser fühlen lässt, aber bei genauer Betrachtung schlechter aussieht, ist das ein Nettogewinn? Frame-Rate ist die unmittelbare Leistungsdimension für die meisten Spieler, und DLSS 5s Fähigkeit, angezeigte Frame-Raten auf High-End-Hardware über 300fps zu treiben, ist wirklich beeindruckend. Aber die Technologie tauscht im Wesentlichen visuelle Genauigkeit gegen zeitliche Glätte ein.

Konkurrierende Ansätze und Skepsis der Entwickler

AMDs FSR 4 und Intels XeSS 2 verfolgen im Großen und Ganzen ähnliche Ziele — KI-unterstütztes Upscaling und Frame-Interpolation — aber mit unterschiedlichen architektonischen Ansätzen und Hardware-Anforderungen. AMD hat FSR als Open Source und Hardware-agnostisch gemacht, was bedeutet, dass es auf jeder GPU läuft, während Nvidias DLSS die dedizierten Tensor Cores erfordert, die nur in Nvidia-Hardware zu finden sind.

Das Frame-Generation-Rennen hat auch Skepsis von Spieleentwicklern angezogen. Das Argument ist, dass Frame-Generierung einen Unterschied zwischen Spielereingabe und angezeigte Ausgabe erzeugt, der reaktionsschnelles Gameplay untergräbt. Wenn ein Spieler seine Maus dreht, enthalten die Frames, die er sieht, KI-generierte Inhalte, die berechnet wurden, bevor diese Eingabe registriert wurde, was eine subtile aber echte Form von visuellem Lag einführt, die nicht in konventionellen Latenz-Messungen auftaucht.

Der Weg voraus

Nvidias Antwort auf die Artefakt-Kritik war gemessen. Das Unternehmen räumt ein, dass Frame-Generierung nicht für alle Spiele oder alle Szenen geeignet ist, und seine Treibersoftware enthält Profile für verschiedene Titel, die die Aggressivität der Frame-Generierung basierend auf dem Inhaltstyp anpassen. Zukünftige Iterationen sollen bessere Ghosting-Reduktion und verbesserte Bewegungsvektorbearbeitung für komplexe Partikelsysteme enthalten.

Die tiefere Frage ist, ob KI-generierte Grafiken einen grundlegenden Wandel in der Art darstellen, wie Spiele gerendert werden, oder einen raffinierten Interpolationstrick mit inhärenten Grenzen. Nvidias ehrgeizigste Forschung deutet auf eine Zukunft hin, in der Neural Rendering traditionelle Rasterisierung und Ray Tracing ganz oder teilweise ersetzt — direkt Pixel aus Szenenbeschreibungen generiert, ohne sie jemals konventionell zu rendern. DLSS 5 ist ein Schritt auf diesem Weg, aber es ist ein Schritt, der zeigt, wie viel weiter die Technologie gehen muss, bevor die Nähte unsichtbar werden.

Dieser Artikel basiert auf Berichten von New Atlas. Lesen Sie den ursprünglichen Artikel.