Ein prominenter KI-Manager widerspricht der These vom Abschwung

Mustafa Suleyman argumentiert, dass künstliche Intelligenz ihrem Wachstumspfad noch lange nicht nahe am Ende ist. In einem neuen Essay, veröffentlicht von

MIT Technology Review

, sagt der KI-Chef von Microsoft, wiederholte Vorhersagen, die KI-Entwicklung werde bald an eine Grenze stoßen, unterschätzten den Umfang und die Struktur der Compute-Expansion, die das Feld derzeit antreibt. Seine zentrale These ist einfach: Der Compute-Explosion hinter Frontier-KI ist weiterhin die prägende Technologiegeschichte dieser Ära, und die zugrunde liegenden Treiber haben noch Raum, sich weiter zu verstärken.

Der Essay ist ausdrücklich ein Plädoyer und kein neutraler Branchenbericht, aber er ist bemerkenswert, weil er von einer Führungsperson eines der Unternehmen stammt, die am direktesten in KI-Infrastruktur investiert sind. Suleymans Position ist, dass Skeptiker immer wieder nach einem einzelnen Engpass suchen, etwa langsamerem Moores Law, begrenzten Daten oder Energieeinschränkungen, dabei aber übersehen, wie mehrere technische Fortschritte gleichzeitig zusammenlaufen.

Das Ausmaß der Compute-Behauptung

Suleyman sagt, dass die für Frontier-KI-Modelle verwendete Trainingsberechnung von frühen Systemen bis zu den heutigen größten Modellen um etwa das Eine-Billionenfache gestiegen sei. Er beschreibt den Wandel von rund 10^14 Gleitkommaoperationen in den frühen Jahren seiner Arbeit im Jahr 2010 hin zu mehr als 10^26 FLOPS bei heutigen Frontier-Systemen. Unabhängig davon, ob man jede Implikation dieses Vergleichs akzeptiert, ist seine Aussage klar: Der Fortschritt der KI wurde durch einen historischen Sprung bei der für das Training eingesetzten Rechenleistung angetrieben.

Diese Einordnung ist wichtig, weil sie die Debatte weg von abstrakten Vorstellungen von Intelligenz und zurück zur industriellen Kapazität lenkt. KI-Fortschritt ist aus dieser Sicht nicht vor allem eine Geschichte isolierter algorithmischer Durchbrüche. Es ist die Geschichte immer gewaltigerer Systeme, die mehr Prozessoren stärker auslasten können, mit mehr Daten, die effizienter und über längere Zeit durch sie fließen.

Drei technische Säulen in Suleymans Argument

Der Essay nennt drei Fortschritte, die seiner Ansicht nach inzwischen zusammenwirken. Der erste ist die schnellere Rohleistung der Chips. Er verweist auf Nvidia-Hardware, die sich von 312 Teraflops im Jahr 2020 auf 2.500 Teraflops heute verbessert habe, eine Verachtfachung in sechs Jahren. Außerdem nennt er Microsofts Maia-200-Chip, der im Januar vorgestellt wurde und nach seiner Aussage 30 % bessere Leistung pro Dollar liefert als jede andere Hardware in der Unternehmensflotte.

Der zweite ist die Speicherbandbreite. Suleyman hebt High Bandwidth Memory, kurz HBM, hervor und sagt, die neueste Generation HBM3 verdopple die Bandbreite ihres Vorgängers nicht nur, sondern verdreifache sie. Praktisch bedeutet sein Argument, dass Trainingssysteme nicht nur besser rechnen, sondern auch Prozessoren schnell genug mit Daten versorgen, damit teure Beschleuniger nicht untätig auf Daten warten müssen.

Der dritte ist die Großvernetzung. Technologien wie NVLink und InfiniBand, schreibt er, verbinden inzwischen Hunderttausende GPUs zu supercomputerartigen Rechenzentren, die als ein einziges System arbeiten. Das ist ein zentraler Teil der These des Essays. Es geht nicht nur um „bessere Chips“. Es geht auch um die Entwicklung immer größerer Compute-Fabrics, die Zeitverluste reduzieren und enorme Zahlen von Prozessoren gemeinsam koordinieren.

Warum der Essay wichtig ist, auch wenn er ein Meinungsbeitrag ist

Suleymans Argument steht mitten in einer aktiven Debatte. KI-Kritiker und einige Forscher haben infrage gestellt, ob sich aktuelle Skalierungstrends wirtschaftlich oder physisch fortsetzen lassen. Die Sorgen drehen sich meist um Strombedarf, Kapitalintensität, Datenknappheit und sinkende Erträge, wenn Modelle einfach nur größer werden. Suleyman weist diese Sorgen nicht einzeln zurück, sondern argumentiert, dass sie die kombinierte Kraft von Chipverbesserungen, Speicherfortschritten und Systemintegration noch nicht überwiegen.

Diese Position ist wichtig, weil jetzt grundlegende Infrastrukturentscheidungen getroffen werden. Wenn die Branche glaubt, die Compute-Kurve sei weiterhin steil, werden Hyperscaler, Chip-Designer und Regierungen eher weiter in außergewöhnlichem Maßstab investieren. Wenn sie glauben, eine harte Grenze stehe kurz bevor, verschiebt sich die Kapitalallokation. Der Essay ist daher nicht nur beschreibend. Er ist Teil des Wettbewerbs darum, welche Art von Zukunft KI-Unternehmen bauen sollten.

Er spiegelt auch wider, dass die KI-Branche Fortschritt zunehmend in Systembegriffen beschreibt. Leistung pro Chip ist wichtig, aber auch Bandbreite, Vernetzung und Software-Koordination. Das praktische Ergebnis ist, dass KI-Führungsstärke immer enger mit Lieferketten, Rechenzentrumsdesign und der Fähigkeit verbunden wird, Hardware in eine kohärente Trainingsinfrastruktur zu integrieren.

Stärken und Grenzen der Argumentation

Die Stärke von Suleymans Argument ist, dass es nicht von einem magischen Durchbruch abhängt. Es betont kumulative technische Gewinne über mehrere Ebenen des Stacks hinweg. So funktionieren große Technologiesprünge oft, wenn sie länger als erwartet an Dynamik gewinnen. Engpässe in einem Bereich können teilweise ausgeglichen werden, wenn mehrere benachbarte Ebenen sich gleichzeitig verbessern.

Die Grenze ist, dass ein Meinungsessay nicht dasselbe ist wie ein Beweis dafür, dass exponentielle Verbesserungen unbegrenzt anhalten werden. Der Artikel argumentiert, dass der Trend „ziemlich vorhersehbar“ wirke, wenn man das gesamte technische Bild betrachtet, doch langfristige Verläufe bleiben abhängig von Wirtschaft, Energieverfügbarkeit, Angebotsengpässen und dem Wert, den Kunden letztlich aus größeren Systemen ziehen. Suleyman macht ein entschiedenes Plädoyer für weiteres Skalieren, beendet die Debatte aber nicht.

Ein nützliches Signal für das Branchenvertrauen

Dennoch ist der Essay ein nützliches Signal. Er zeigt, dass einer der führenden Manager des Sektors öffentlich nicht für Mäßigung, sondern für anhaltendes Vertrauen in den Infrastrukturausbau hinter Frontier-KI wirbt. Dieses Vertrauen wird nicht mystisch begründet. Es ist in Teraflops, Bandbreite und Verbindungen verankert. Allein das sagt bereits etwas Wichtiges über die aktuelle Phase der Branche aus.

Trotz der öffentlichen Faszination für Chatbots und Agenten bleibt der Schwerpunkt in der KI Compute. Suleymans Essay erinnert daran, dass der strategische Kampf weiterhin tief im Hardware- und System-Stack ausgetragen wird. Wenn er recht hat, befindet sich die Branche noch früh in einer viel größeren Expansion. Wenn er falsch liegt, werden die nächsten Jahre die Grenzen offenlegen. So oder so erfasst der Text die Haltung der Unternehmen, die das KI-Zeitalter bauen: Sie glauben nicht, dass die Wand schon da ist.

Dieser Artikel basiert auf einer Berichterstattung von MIT Technology Review. Originalartikel lesen.