Vom Hype-Zyklus zum Infrastruktur-Zyklus

Die erste Welle von generativen AI-Investitionen war geprägt von unbegrenzter Begeisterung — Unternehmen sahen ihre Bewertungen allein dadurch steigen, dass sie AI in einer Pressemitteilung erwähnten. Goldman Sachs Research argumentiert, dass diese Phase endet und durch etwas Selektiveres und in physikalischen Realitäten Verankertes ersetzt wird.

Die Analysten des Unternehmens beschreiben eine Flight-to-Quality-Dynamik, in der anspruchsvolle Investoren ihre Aufmerksamkeit auf die Fundamentschicht der AI-Wirtschaft verlagern: Datenzentren und die Computing-Hardware, die sie füllt. Die Begründung ist einfach. Die Modell-Fähigkeiten werden sich weiter verbessern, Anwendungen kommen und gehen, aber die physische Infrastruktur, die zum Trainieren und Betreiben dieser Modelle erforderlich ist, ist eine absolute Notwendigkeit, deren Angebot durch Energieverfügbarkeit und Konstruktionszeitpläne begrenzt ist, die durch Software-Durchbrüche allein nicht verkürzt werden können.

Die Zahlen hinter der Verschiebung

Goldman Sachs schätzt, dass AI-Workloads in zwei Jahren etwa 30 Prozent der gesamten Datenzentrum-Kapazität ausmachen werden, basierend auf angekündigten Hyperscaler-Investitionsplänen, die Hunderte von Milliarden Dollar für neue Konstruktion darstellen.

Die Energiedimension ist noch beeindruckender. Das Unternehmen schätzt, dass die globale Stromversorgungsnachfrage von Datenzentren bis 2030 im Vergleich zu 2023 um etwa 175 Prozent steigen könnte, angetrieben hauptsächlich durch die Energieintensität von AI-Training und -Inferenz. Diese Steigerung allein würde in etwa dem Hinzufügen des Stromverbrauchs einer gesamten Top-10-Weltwirtschaft zum Stromnetz entsprechen. Dies ist keine Nebenüberlegung für AI-Strategie — es ist eine primäre Beschränkung, die bereits formt, wo und wie schnell die Entwicklung voranschreiten kann.

Infrastruktur-Engpässe gestalten Strategie neu

Der Bau eines großflächigen AI-Rechenzentrums ist nicht einfach eine Frage von Kapital. Land muss erworben und in der Nähe zuverlässiger Energiequellen erschlossen werden. Netzanschlüsse müssen mit Versorgungsunternehmen ausgehandelt werden, die möglicherweise mehrjährige Vorlaufzeiten für die Erweiterung der Übertragungskapazität benötigen. Große Leistungstransformatoren sind zu einem echten Engpass geworden; die Lieferzeiten haben sich in einigen Märkten auf zwei oder mehr Jahre ausgedehnt, begrenzt durch begrenzte Herstellungskapazität und konkurrierende Anforderungen aus dem Ausbau erneuerbarer Energien.

Die Standortauswahl ist daher zu einer strategischen Funktion bei großen AI-Unternehmen geworden. Remote-Standorte mit Zugang zu Wasserkraft- oder Geothermalenergie, kühleren Umgebungstemperaturen und bestehender hochkapazitiver Glasfaser sind nun echte knappe Ressourcen. Die geografische Konzentration von AI-Berechnung spiegelt die Clusterung von günstigen Infrastrukturbedingungen wider.

Die Investitions-Implikation

Für Investoren zeigt Goldmans Sachs-Analyse ein Muster aus früheren Computing-Zyklen. Während des Internet-Aufbaus erfassten Unternehmen, die physische Kabel und Datenzentren besaßen, stabile Einnahmen, während Unternehmen der Anwendungsschicht volatile Zyklen erlebten. Eine ähnliche Dynamik könnte sich bei AI bilden.

Datenzentrum-Betreiber, Versorgungsunternehmen, die AI-Campus beliefern, Spezialisten für Kühlungstechnologie und Hersteller von Netzwerk-Hardware sitzen näher an der Infrastruktur-Basis als die meisten AI-Software-Unternehmen. Das Unternehmen merkt an, dass Hyperscale-Cloud-Anbieter trotz ihrer enormen Marktkapitalisierungen hauptsächlich Infrastruktur-Geschäfte sind, wenn analysiert wird, wo ihr Kapital tatsächlich eingesetzt wird.

Der Energie-Wildcard

Goldman identifiziert Energie als die Variable, die am ehesten zum bestimmenden Faktor werden könnte, bevor die Berechnungskapazität binding wird. Die bestehende Strominfrastruktur wurde nicht gebaut, um die für AI projizierten Wachstumsraten zu bewältigen. Versorgungsunternehmen investieren in Netzausbau, aber regulatorische Genehmigung und Konstruktionszeitpläne bedeuten, dass neue Erzeugungs- und Übertragungskapazität um Jahre hinter der Nachfrage zurückbleibt.

Dies treibt AI-Unternehmen bereits dazu, unkonventionelle Lösungen zu erkunden: Stromkaufverträge mit Kernkraftwerken, dedizierte Erdgaserzeugung und Langzeit-Batteriespeicherung, die mit Datenzentren kolokalisiert ist. Die Energiefrage ist nicht mehr peripher für AI-Strategie — sie könnte sehr wohl der bestimmende Faktor sein, welche Unternehmen skalieren können und welche nicht.

Dieser Artikel basiert auf Berichten von AI News. Lesen Sie den Originalartikel.