Defensive KI macht Fortschritte, aber der Zugang ist ungleich

Der Aufstieg leistungsfähiger künstlicher Intelligenz verändert die Cybersicherheit in zwei Richtungen zugleich. Angreifer nutzen Modelle, um Schwachstellen schneller als bisher zu finden und auszunutzen, während eine kleinere Gruppe großer Unternehmen und Institutionen Zugang zu fortschrittlichen Verteidigungssystemen erhält, die Schwächen im großen Maßstab erkennen können. Das Ergebnis ist laut Rest of World eine wachsende globale Cybersicherheitslücke, in der ressourcenstarke Organisationen widerstandsfähiger werden können, während alle anderen noch stärker exponiert sind.

Der Artikel dreht sich um Anthropic’s Mythos Preview, das nach Angaben des Unternehmens Tausende von Schwachstellen in großen Betriebssystemen und Webbrowsern gefunden hat. Der erste Zugang zum Tool wurde rund 40 Technologieunternehmen und Institutionen gewährt. Dieser Zugang wurde jedoch nicht auf die meisten Regierungen und Zentralbanken ausgeweitet, sodass viele öffentliche und ressourcenschwächere Organisationen auf eine Handvoll großer KI-Unternehmen angewiesen sind, um kritische Systeme zu schützen.

Diese Asymmetrie ist wichtig, weil sich die Bedrohungslage beschleunigt. Rest of World verweist auf Daten von CrowdStrike, denen zufolge KI-gestützte Akteure ihre Angriffe im Jahr 2025 um 89% gegenüber dem Vorjahr erhöhten. Der Beitrag argumentiert, dass KI-Systeme Software-Schwachstellen inzwischen innerhalb von Stunden nach ihrer Entdeckung in Waffen verwandeln können, wodurch das ohnehin schwierige Zeitfenster zwischen dem Erkennen eines Fehlers und seiner Ausnutzung weiter zusammengedrückt wird.

Warum die Lücke systemisch werden könnte

Cybersicherheit war schon immer ungleich verteilt. Wohlhabende Unternehmen können tiefe technische Teams einstellen, teure Werkzeuge kaufen und ausgereifte Incident-Response-Fähigkeiten unterhalten. Kleinere Firmen, lokale Institutionen und Entwicklungsländer können das oft nicht. Was sich im KI-Zeitalter ändert, ist die Geschwindigkeit. Wenn maschinengesteuerte Angriffswerkzeuge deutlich schneller scannen, sich anpassen und Ausnutzungspfade erzeugen können als menschliche Teams, dann stehen Organisationen, die ohnehin mit knappem Personal und Altsystemen arbeiten, vor einem noch steileren Nachteil.

Der Ursprungstext hebt einen weiteren Druckpunkt hervor: den Arbeitsmarkt. Ein großer weltweiter Mangel an Cybersicherheitsfachkräften bedeutet, dass selbst dort, wo Führungskräfte die Bedrohung verstehen, möglicherweise nicht genug erfahrene Menschen zur Verfügung stehen, um sie aufzufangen. KI kann diese Lücke theoretisch schließen, aber nur, wenn starke Verteidigungswerkzeuge breit verfügbar, bezahlbar und in den Umgebungen einsetzbar sind, die sie am dringendsten brauchen.

Das ist nicht die Welt, die in dem Bericht beschrieben wird. Stattdessen scheinen die leistungsfähigsten Verteidigungen bei Top-Unternehmen und ausgewählten Partnern konzentriert zu sein. Wenn weit verbreitete kommerzielle Software schnell gepatcht wird, während stärker angepasste oder souveränitätsorientierte Systeme zurückbleiben, dann ist die Kluft nicht nur zwischen reichen und armen Organisationen vorhanden. Sie verläuft auch zwischen Software-Ökosystemen mit direkten Verbindungen zu großen US-Technologieunternehmen und solchen ohne diese Verbindungen.

Angriffsautomatisierung senkt die Hürde

Die kulturelle und politische Bedeutung dieser Entwicklung reicht über die Unternehmens-IT hinaus. KI-Tools können Kriminellen helfen, Phishing-Mails, Deepfake-Videos, Stimmklone und Malware mit deutlich weniger Aufwand als früher zu erzeugen. Sie können auch helfen, verwundbare Ziele zu identifizieren und Ausnutzungsabläufe zu generieren. Effektiv senkt KI damit das erforderliche Maß an Fachwissen, um Schaden anzurichten.

Diese Dynamik erweitert den Kreis der Akteure, die an Cyberkriminalität oder Störkampagnen teilnehmen können. Der Rest-of-World-Bericht nennt das Beispiel einer nordkoreanischen Hackergruppe, die KI-Tools von OpenAI und Cursor in einer Operation verwendete, bei der angeblich über mehrere Monate bis zu 12 Millionen US-Dollar in Kryptowährungen gestohlen wurden. Ob solche Tools direkt zum Programmieren, zur Aufklärung oder für Social Engineering genutzt werden, das Muster ist dasselbe: Mehr Fähigkeiten werden mehr Angreifern zu geringeren Kosten zugänglich.

Für Verteidiger entsteht dadurch eine unausgewogene Gleichung. Ein Krankenhaus, eine lokale Bank oder ein regionaler Versorger muss jedes kritische System, jeden Zulieferpfad und jeden Mitarbeiter-Workflow absichern. Ein Angreifer dagegen braucht nur eine wirksame Einstiegsmöglichkeit. KI verschärft dieses Missverhältnis, wenn sie mehr Angriffsflächen schneller testen kann, als ressourcenschwache Teams sie schließen können.

Niemand bleibt lange isoliert

Einer der stärksten Punkte des Berichts ist, dass Cyberrisiken nicht sauber lokal bleiben. Kleinere Institutionen und weniger geschützte Staaten sind Teil derselben Finanz-, Kommunikations- und Software-Netzwerke, die die Weltwirtschaft verbinden. Ein schwaches Glied in einer Jurisdiktion oder Branche kann über Zulieferer, Zahlungssysteme, Partnernetzwerke oder Infrastrukturabhängigkeiten zu einem Zugangspfad in andere werden.

Das bedeutet, dass die Konzentration defensiver KI auf eine begrenzte Zahl von Organisationen private Gewinne bringen kann, ohne öffentliche Sicherheit im großen Maßstab zu liefern. Selbst die bestgeschützten multinationalen Unternehmen bleiben Zulieferern, Kunden und staatlichen Systemen ausgesetzt, die Schwachstellen möglicherweise langsamer erkennen und beheben. In diesem Sinne ist der ungleiche Zugang zu defensiver KI nicht nur ein Gerechtigkeitsproblem. Er ist ein kollektives Sicherheitsproblem.

Der Artikel zitiert Beobachter mit der Aussage, dass „Cybersicherheit nie ein isoliertes Problem ist“, und diese Logik trägt. Wenn ein Teil des Systems deutlich zurückbleibt, wird das gesamte System schwerer vertrauenswürdig.

Die politische Herausforderung danach

Das Ausgangsmaterial liefert keinen detaillierten Regulierungsplan, verweist aber auf ein zentrales politisches Dilemma. Unternehmen, die fortschrittliche Verteidigungsmodelle entwickeln, können legitime Gründe haben, den Zugang zu beschränken, darunter die Sorge, dass dieselben Werkzeuge für offensive Zwecke missbraucht werden könnten. Doch strenge Beschränkungen können die breite Welt genau in dem Moment ungeschützt lassen, in dem Angriffsautomatisierung billiger und schneller wird.

Diese Spannung wird wahrscheinlich die nächste Phase der KI-Governance in der Cybersicherheit prägen. Regierungen könnten auf Zugangsregelungen im öffentlichen Interesse, sichere Bewertungsrahmen oder Partnerschaften drängen, die die Verteidigungsabdeckung ausweiten, ohne einfach riskante Werkzeuge offen freizugeben. Gleichzeitig müssen ressourcenschwache Organisationen möglicherweise auf praktische Resilienz setzen: Angriffsflächen reduzieren, schneller patchen, Systeme segmentieren und sich auf Vorfälle vorbereiten, bei denen zunehmend KI auf der Gegenseite steht.

Der tiefere kulturelle Wandel ist bereits sichtbar. Cybersicherheit bedeutet nicht mehr nur, Netze vor menschlichen Gegnern zu schützen, die Software einsetzen. Es geht zunehmend darum, Institutionen vor Software zu schützen, die bessere Gegner hervorbringt. Wenn der Zugang zur besten defensiven KI eng bleibt, könnte die Lücke zwischen denen, die mithalten können, und denen, die es nicht können, die nächste Ära digitaler Ungleichheit prägen.

Dieser Artikel basiert auf der Berichterstattung von Rest of World. Den Originalartikel lesen.