Das Heer testet, wie weit autonome Cyberabwehr gehen sollte

Die US-Armee prüft rasch eine aggressivere Rolle von KI in der Cyberabwehr, nachdem ein jüngstes Wargame mit Technologieführern aus der Privatwirtschaft untersucht hat, wie künftige Angriffe menschliche Bediener überfordern könnten. Die Übung, bekannt als AI Table Top Exercise 2.0, brachte Führungskräfte von 14 Technologieunternehmen, Armeevertreter und das U.S. Cyber Command zu einem harten Szenario zusammen: eine Krise im Indo-Pazifik im Jahr 2027, die in einen Cyberkrieg gegen amerikanische Militärnetzwerke eskaliert.

Die zentrale Erkenntnis war nicht, dass KI Cyberabwehr allein lösen kann. Sie war vielmehr, dass Abwehr im menschlichen Tempo womöglich nicht mehr ausreicht, wenn Gegner adaptive, KI-gestützte Angriffssysteme einsetzen, die schneller als Menschen sondieren, ausnutzen und ihre Taktik ändern können. Das hat Armeevertreter dazu gebracht, offener über agentische KI zu sprechen, die von der Erkennung zur Handlung übergehen kann, und über den Aufbau einer politischen Struktur für Fälle, in denen diese Systeme mehr Autonomie erhalten sollten.

Von der Warnung zur Reaktion

Brandon Pugh, leitender Cyber-Berater von Heeressekretär Daniel Driscoll, rahmte die Frage im Sinne der Risikobereitschaft. In Friedenszeiten dürfte menschliche Aufsicht der Standard bleiben. Im Krieg, insbesondere bei einer Angriffswelle, könnte das Heer jedoch eine andere Schwelle brauchen, um Software-Agenten handeln zu lassen. Dahinter steht die Logik einer möglichen „Risk-Continuum“-Politik, also eines Ansatzes, der den menschlichen Anteil je nach Lage variiert.

Diese Unterscheidung ist entscheidend. Das Verteidigungsministerium nutzt bereits KI, um Eindringversuche in seinen Netzwerken zu erkennen. Erkennung ist jedoch nur der erste Schritt. Die schwierigere Frage lautet, ob KI-Systeme befugt sein sollten, bei einem laufenden Einbruch selbst direkt Gegenmaßnahmen einzuleiten.

Pugh sagte, das Heer sei bei der Nutzung von KI zur Erkennung bereits stark, müsse nun aber zu agentischen Fähigkeiten vorstoßen, die nicht nur bösartiges Verhalten identifizieren, sondern auch darauf reagieren können. Das könnte bedeuten, Systeme zu isolieren, Verbindungen zu blockieren, Gegenmaßnahmen auszulösen oder einen Angriff anderweitig zu unterbrechen, bevor er sich ausbreitet.

Warum das Heer dies für dringend hält

Generalleutnant Christopher Eubank, der das Army Cyber Command leitet, beschrieb die Herausforderung in klaren Worten. In einer Welt agentischer KI sei es unrealistisch, Verteidiger aufzufordern, „einfach schneller zu patchen“, sagte er. Wenn Angriffssysteme wiederholt Angriffe starten, die sich fortlaufend an defensive Änderungen anpassen, könnten menschliche Teams schlicht zu langsam sein, um mitzuhalten.

Das Szenario der Übung basierte genau auf dieser Annahme. Beamte sagten, der hypothetische Gegner habe KI eingesetzt, um Salve um Salve von Cyberangriffen zu starten, die sich schneller an die Verteidigungsposition des Heeres anpassten, als ein menschlicher Verteidiger reagieren konnte. Diese Art von Druck unterscheidet sich von gewöhnlicher Netzwerksicherheit. Sie macht Cyberoperationen zu einem Geschwindigkeitswettlauf, in dem schon Zögern selbst zur Schwachstelle wird.

So betrachtet, hat das Interesse des Heeres an mehr Autonomie weniger mit Begeisterung für Automatisierung zu tun als mit einer praktischen Antwort auf die Verdichtung von Zeit. Wenn sich die Angriffsschleife beschleunigt, muss sich auch die Abwehrschleife beschleunigen.

Die Rolle der Industrie bei der Doktrinbildung

Bemerkenswert an der Übung ist, dass sie nicht als eng geskriptete technische Simulation durchgeführt wurde. Sie wurde vom Strategic Competitive Studies Project konzipiert und organisiert und nutzte ein seminarartiges Format, in dem Führungskräfte von 14 Technologieunternehmen Empfehlungen abgaben und militärische Teilnehmer diese Ideen hinterfragten. Das signalisiert, dass das Heer nicht nur nach Produkten sucht. Es versucht zu verstehen, wie kommerzielle KI-Denke die militärische Cyberdoktrin prägen sollte.

Das ist ein wichtiger Unterschied. Die Kernfragen lauten nicht einfach, ob ein Werkzeug funktioniert, sondern wer es unter welchen Bedingungen, mit welchen Schutzmaßnahmen und mit welcher Toleranz gegenüber Fehlalarmen oder unbeabsichtigten Folgen autorisieren darf. Das sind ebenso sehr politische und Führungsfragen wie technische.

Das Heer scheint sich dessen bewusst zu sein. Die Übung lieferte keine endgültigen Antworten, und die Verantwortlichen äußerten sich dazu offen. Aber sie verschaffte Militärführern Außenperspektiven darauf, wie autonome Verteidigung in einem Konfliktszenario zu denken ist, in dem Verzögerung katastrophal sein könnte.

Das Politikproblem könnte schwieriger sein als das technische

Agentische Cybersysteme zu bauen ist schwierig. Vertrauen in sie aufzubauen, könnte noch schwieriger sein. Eine defensive KI, die zu langsam handelt, ist wirkungslos. Eine, die zu schnell oder zu weitreichend eingreift, könnte befreundete Operationen stören, legitimen Datenverkehr unterbrechen oder in einer Krise neue Risiken schaffen.

Deshalb könnte das aufkommende Konzept eines „Risk Continuum“ wichtiger sein als jede einzelne Produktankündigung. Es deutet darauf hin, dass das Heer sich auf eine Zukunft vorbereitet, in der Autonomiestufen nicht fest, sondern bedingt sind. Eine routinemäßige Netzwerkumgebung könnte strenge menschliche Kontrolle verlangen. Ein großer Kriegsangriff könnte weit lockerere Aufsicht rechtfertigen, wenn die Alternative darin bestünde, von maschinengesteuerten Angriffen überholt zu werden.

Ein solcher Rahmen würde nicht jede ethische oder operative Frage lösen, aber er würde eine Möglichkeit bieten, technische Fähigkeiten mit Befehlsgewalt und Missionskontext zu verbinden. In der Praxis könnte genau das darüber entscheiden, ob agentische Verteidigung in großem Maßstab nutzbar ist.

Was als Nächstes kommt

Die nächsten Schritte des Heeres dürften sowohl die Entwicklung von Werkzeugen als auch die Ausarbeitung von Politik umfassen. Beamte sagten, sie wollten neue KI-Fähigkeiten rasch vorantreiben und zugleich an den Regeln arbeiten, die ihren Einsatz steuern würden. Dieser Doppelansatz ist sinnvoll, denn eines ohne das andere würde scheitern. Technologie ohne Doktrin erzeugt Chaos. Doktrin ohne leistungsfähige Technologie führt ins Leere.

Die größere Bedeutung ist, dass die militärische Cyberabwehr in eine neue Phase eintritt. KI wird nicht mehr nur als Hilfsmittel für Analysten behandelt. Sie wird als operativer Akteur betrachtet, der möglicherweise in Maschinenzeit handeln muss, wenn menschliches Timing nicht mehr ausreicht.

Das Heer hat noch nicht entschieden, wie viel Spielraum es diesen Agenten geben will. Aber nach diesem Wargame bereitet es sich eindeutig auf eine Zukunft vor, in der es das größere Risiko sein könnte, diese Entscheidung nicht zu treffen.

Dieser Artikel basiert auf einer Berichterstattung von Breaking Defense. Zum Originalartikel.