Das Jahr, in dem die AI-Blase auf die Realität traf
In wenigen Jahren entwickelte sich künstliche Intelligenz von einem Nischenforschungsgebiet zur am meisten gehypten Technologie der modernen Geschichte. Billionen Dollar Marktkapitalisierung, Milliarden in Venture-Finanzierung und ein Strom von atemlosen Vorhersagen über künstliche allgemeine Intelligenz schufen eine Atmosphäre irrationaler Überschwänglichkeit, die das Dot-Com-Zeitalter rivalisierte. Dann kam 2025, und die Rechnung wurde fällig.
MIT Technology Review hat in einem neuen eBook eine umfassende Bewertung dessen zusammengestellt, was schief gelaufen ist, und dokumentiert die Diskrepanz zwischen dem, was AI-Unternehmen versprachen, und dem, was sie tatsächlich lieferten. Die "Hype Correction"-Serie der Publikation argumentiert, dass die Industrie eine notwendige Post-Hype-Phase betreten hat, die eine ehrliche Abrechnung mit den echten Fähigkeiten der Technologie und ihren gleichermaßen echten Grenzen erfordert.
Das eBook kommt zu einem Zeitpunkt, an dem die AI-Industrie mit einer Identitätskrise ringt. Die revolutionäre Technologie, die jede Industrie transformieren, Millionen von Arbeitsplätzen eliminieren und möglicherweise übermenschliche Intelligenz erreichen sollte, hat stattdessen eine bescheidenere Realität nützlicher, aber begrenzter Werkzeuge hervorgebracht, die am besten funktionieren, wenn sie sorgfältig in bestehende menschliche Arbeitsabläufe integriert werden.
Die Ausfallquote von 95 Prozent
Vielleicht die vernichtendste Statistik in der Abrechnung stammt aus MITs eigenem "GenAI Divide"-Bericht, der im Juli 2025 veröffentlicht wurde. Die Studie ergab, dass fünfundneunzig Prozent der Enterprise-AI-Implementierungen keinen messbaren geschäftlichen Wert lieferten. Dies ist keine Zahl von Skeptikern oder Kritikern. Sie entstand aus rigoroser Analyse tatsächlicher unternehmensweiter Implementierungen über mehrere Branchen hinweg.
Die Ausfallquote erfordert Kontext. Während 2023 und 2024 beeilten sich Unternehmen aller Sektoren, generative AI anzunehmen, oft unter Druck von Vorständen, Investoren und Medienerzählungen, die AI-Implementierung als existenziell behandelten. Chief Executives, die keine AI-Strategie erklären konnten, sahen sich spitzfindigen Fragen von Aktionären gegenüber. Das Ergebnis war eine Welle übereilter, schlecht geplanter Implementierungen, die eher von Angst vor dem Verpassen als von echtem geschäftlichem Bedarf angetrieben wurden.
Viele dieser Implementierungen folgten einem vorhersehbaren Muster. Ein Unternehmen lizenzierte ein großes Sprachmodell, baute einen Prototyp-Chatbot oder ein Dokumentenzusammenfassungs-Tool, präsentierte es der Geschäftsleitung in einer kontrollierten Umgebung und stellte dann fest, dass die Leistung dramatisch abnahm, wenn es echten Benutzern mit echten Aufgaben und echten Daten bereitgestellt wurde. Die Lücke zwischen Demo und Produktion erwies sich als viel größer als von Anbietern vorgeschlagen.
Autonome Agenten: Das Versprechen, das zusammenbrach
Kein Segment der AI-Industrie erlebte eine dramatischere Hype-Korrektur als autonome Agenten. Während 2024 und in die frühe 2025 hinein, beworbten große AI-Unternehmen eine Vision von Software-Agenten, die unabhängig komplexe Arbeitsplatzaufgaben bewältigen könnten, von Reisebuchungen bis zum Schreiben von Berichten bis zur Projektverwaltung, mit minimalem menschlichem Überblick.
Eine Studie von Forschern bei Upwork testete diese Proposition systematisch, indem Agenten eingesetzt wurden, die von führenden großen Sprachmodellen von OpenAI, Google DeepMind und Anthropic angetrieben wurden, für eine Reihe von Standard-Arbeitsplatzaufgaben. Die Ergebnisse waren nüchtern. Diese Agenten konnten viele unkomplizierte Aufgaben nicht selbstständig bewältigen. Modelle wie GPT-5 und Gemini erreichten Abschlussquoten von kaum zwanzig Prozent bei Aufgaben, die mehr als einfache Informationsbeschaffung erforderten.
Aufgaben, die kulturelle Nuance erforderten, erwiesen sich als besonders problematisch. Marketingtext-Generierung, Sprachübersetzung, Website-Layout-Design und jede Arbeit, die ein Verständnis von Publikum, Kontext oder ästhetischem Urteilsvermögen erforderte, scheiterten völlig. Die Agenten konnten Text generieren, der oberflächlich betrachtet kompetent erschien, fiel aber unter genauer Untersuchung auseinander und produzierte Ergebnisse, die generisch, kulturell unpassend oder faktisch unzuverlässig waren.
Das Kodierungs-Paradoxon
Einer der überraschendsten Befunde in der Hype-Korrektur betraf AI-Kodierungs-Assistenten, die unter den gefeiertsten und am weitesten verbreiteten Anwendungen großer Sprachmodelle waren. Mehrere 2025 veröffentlichte Studien konvergierten zu einer unerwarteten Schlussfolgerung: Entwickler, die AI-Kodierungs-Assistenten verwendeten, vervollständigten Aufgaben neunzehn Prozent langsamer als diejenigen, die ohne sie arbeiteten.
Die Erklärung scheint die versteckten Kosten der AI-unterstützten Kodierung zu betreffen. Während die Werkzeuge die Generierung von Initialcode beschleunigten, verbrachten Entwickler erhebliche zusätzliche Zeit damit, die Ausgabe der AI zu überprüfen, zu testen und zu korrigieren. Die Modelle führten häufig subtile Fehler ein, verwendeten veraltete APIs oder generierten Code, der technisch kompilierte, aber architektonische Konventionen oder Best Practices in der Sicherheit verletzte. Die beim Schreiben eingesparte Zeit wurde durch die beim Verifizieren und Beheben verbrachte Zeit mehr als verbraucht.
Dieser Befund widersprach direkt den Behauptungen von AI-Unternehmen, die enorme Produktivitätssteigerungen durch Kodierungs-Assistenten projiziert hatten. Mehrere prominente von den AI-Unternehmen selbst in Auftrag gegebene Studien hatten dramatische Zeiteinsparungen gezeigt, aber diese wurden typischerweise in kontrollierten Umgebungen mit einfachen, gut definierten Aufgaben durchgeführt, anstatt der chaotischen, mehrdeutigen Arbeit, die echte Softwareentwicklung charakterisiert.
Die AGI-Fata Morgana
Viel des AI-Hypes beruhte auf dem Versprechen oder der Drohung künstlicher allgemeiner Intelligenz, eines hypothetischen Systems, das zur kognitiven Fähigkeit des Menschen über alle Domänen hinweg kommt oder diese übertrifft. Während 2023 und 2024 kultivierten die Anführer großer AI-Unternehmen aktiv Erwartungen, dass AGI unmittelbar bevorstehe, mit Zeitplänen zwischen zwei und fünf Jahren.
Gegen Ende 2025 war diese Erzählung größtenteils zusammengebrochen. Prominente AI-Forscher begannen öffentlich zu erklären, dass die Ära der bahnbrechenden Fortschritte vorbei ist und dass große Sprachmodelle, die Technologie, die die aktuelle Generation von AI-Systemen antreibt, kein Weg zu AGI sind. Die Skalierungsgesetze, die schnelle Verbesserungen in der Modellleistung angetrieben hatten, zeigten Anzeichen, auf eine kognitive Skalierungsmauer zu treffen, bei der einfach Modelle größer zu machen und auf mehr Daten zu trainieren abnehmende Erträge erbrachte.
Die technischen Gründe sind zunehmend gut verstanden. Große Sprachmodelle sind ausgefeilte Musterkennungssysteme, trainiert auf von Menschen generiertem Text. Sie können Muster auf beeindruckende Weise rekombinieren und interpolieren, aber ihnen fehlt die kausale Argumentation, die Weltmodelle und das echte Verständnis, das wahre allgemeine Intelligenz charakterisieren würde. Die Lücke zwischen fließendem Text und dem Verständnis dessen, was dieser Text bedeutet, bleibt unabhängig von der Modellskala so groß wie je zuvor.
Die menschlichen Kosten des Hypes
Die AI-Hype-Korrektur war keine rein abstrakte Angelegenheit der Technologiebewertung. Echte Konsequenzen folgte aus übersteigerten Erwartungen. Unternehmen, die vorzeitige Verpflichtungen zu AI-gestützter Automatisierung eingegangen waren, sahen sich kostspieligen Rückgängigmachungen gegenüber. Arbeitnehmer, denen gesagt wurde, ihre Arbeitsplätze würden durch AI eliminiert, erlebten länger andauernde Angst, um festzustellen, dass ihre Rollen größtenteils unverändert waren. Studenten, die ihre Ausbildung um AI-nahe Fähigkeiten umstrukturiert hatten, stellen jetzt in Frage, ob der ihnen versprochene Arbeitsmarkt sich materialisieren wird.
Vielleicht am folgenreichsten waren die während des Hype-Zyklus der AI zugewandten Ressourcen Opportunitätskosten. Kapital, Ingenieurstalent und Organisationsaufmerksamkeit, die zu AI-Projekten mit minimalem Ertrag geleitet wurden, könnten in andere Technologien oder in Adressierung drängender nicht-technologischer Herausforderungen investiert worden sein.
Was die Korrektur übersteht
Die Hype-Korrektur bedeutet nicht, dass künstliche Intelligenz nutzlos ist. Im Gegenteil, durch das Entfernen unrealistischer Erwartungen wird es klar, wo die Technologie wirklich glänzt. AI-Werkzeuge sind wirksam für spezifische, gut definierte Aufgaben: Zusammenfassung von Dokumenten, Sprachübersetzung mit menschlicher Überprüfung, Beschleunigung der Suche durch große Datensätze, Generierung erster Entwürfe, die Menschen dann verfeinern, und Identifikation von Mustern in strukturierten Daten.
Der gemeinsame Faden unter erfolgreichen Anwendungen ist menschliche Überwachung. AI funktioniert am besten nicht als autonomer Agent, sondern als Werkzeug, das menschliches Urteilsvermögen augmentiert, indem es das Routine und Repetitive handhabt, während Menschen den Kontext, die Kreativität und das kritische Denken liefern, das der Technologie fehlt. Dies ist eine weniger dramatische Vision als AGI, aber es ist eine realistische, und sie beschreibt einen Markt im Wert von Hunderten von Milliarden Dollar.
MIT Technology Reviews eBook argumentiert, dass die Post-Hype-Phase, während schmerzhaft für diejenigen, die stark auf die ehrgeizigsten Projektionen wetteten, letztendlich gesund für die langfristige Entwicklung der Technologie ist. Realistische Erwartungen führen zu besseren Implementierungen, was zu echtem Wert führt, was die für weitere Forschung notwendige Investition erhält. Die große AI-Hype-Korrektur von 2025 könnte letztendlich nicht als Versagen der Technologie, sondern als notwendige Reifung der Industrie, die sie aufbaut, in Erinnerung bleiben.
Dieser Artikel basiert auf Berichten von MIT Technology Review. Lesen Sie den Original-Artikel.



