KI in der Zielkette
Die Integration von künstlicher Intelligenz in militärische Zielerfassung ist eine der am genauesten beobachteten und am wenigsten transparenten Entwicklungen in der modernen Kriegsführung. Nun hat ein Beamter des Verteidigungsministeriums, der anonym bleiben wollte, zum ersten Mal spezifische Einblicke gegeben, wie generative KI – dieselbe Technologie, die ChatGPT und andere große Sprachmodelle antreibt – zur Unterstützung von Zielentscheidungen in der laufenden US-Militärkampagne gegen den Iran eingesetzt wird.
Dem Beamten zufolge werden generative KI-Systeme als konversative Analyseschicht auf vorhandene Geheimdienst- und Zielerfassungsdaten angewendet. Eine Liste möglicher Ziele wird in das KI-System eingegeben, das aufgefordert wird, die Informationen zu analysieren, Ziele zu priorisieren und Empfehlungen basierend auf Faktoren wie Flugzeugpositionierung, Missionsziele und verfügbare Geheimdienste zu generieren. Menschliche Operatoren überprüfen, evaluieren und übernehmen die Verantwortung für die Umsetzung dieser Empfehlungen.
Zwei verschiedene KI-Technologien
Der Bericht des Beamten zeigt einen wichtigen Unterschied, der in öffentlichen Diskussionen über KI in der Kriegsführung oft übersehen wird: Das Pentagon setzt zwei grundlegend unterschiedliche Arten von KI für verwandte, aber unterschiedliche Funktionen ein.
Project Maven, seit mindestens 2017 operativ, verwendet Computer Vision und Machine Learning, um die enormen Mengen an Bild- und Sensordaten zu verarbeiten, die von Überwachungssystemen gesammelt werden – Drohnenaufnahmen, Satellitenbilder, Signalgeheimdienste. Maven identifiziert potenzielle Ziele in diesen Daten und präsentiert sie menschlichen Operatoren über eine kartengestützte Benutzeroberfläche. Dies ist KI als Datenprozessor und Mustererkenner, die auf klar definierten, überwachten Aufgaben operiert.
Generative KI – Systeme, die auf großen Sprachmodellen basieren – ist von anderer Art. Diese Systeme sind konversativ, flexibel und in der Lage, über verschiedene Arten von Informationen zu argumentieren. Sie können Geheimdienste aus mehreren Quellen synthetisieren, schriftliche Bewertungen generieren und offene Fragen beantworten. Aber sie sind auch weniger kampferprobt, weniger transparent in ihrer Logik und anfälliger für die Arten selbstsicherer, aber falscher Ausgaben, die Experten Halluzinationen nennen.
Die Frage des Menschen in der Schleife
Der Beamte war ausdrücklich, dass Menschen für die Bewertung von KI-Empfehlungen und das Treffen endgültiger Zielentscheidungen verantwortlich bleiben. Diese Mensch-in-der-Schleife-Rahmung ist Standard in Pentagon-Mitteilungen über KI und spiegelt sowohl echtes politisches Engagement als auch operative Realität wider: Kein Militärkommandant wird Entscheidungen über Leben und Tod vollständig an einen Algorithmus auslagern.
Aber die praktische Frage, wie viel Nachgiebigkeit Menschen gegenüber KI-Empfehlungen zeigen – besonders unter Zeitdruck und kognitiver Belastung – ist komplexer als jede offizielle Stellungnahme erfassen kann. Forschung zur Entscheidungsfindung unter Unsicherheit zeigt ständig, dass wenn autoritativ wirkende Systeme selbstsichere Empfehlungen geben, menschliche Überwachung eher oberflächlich als echte Überprüfung wird.
Claude, OpenAI und das Rennen um Pentagon-Verträge
Die Kommentare des Beamten kommen inmitten einer dramatischen Umgestaltung der Beziehung zwischen kommerzieller KI und dem US-Militär. Anthropic's Claude war das erste große Sprachmodell, das für klassifizierte Nutzung beim Pentagon genehmigt wurde, und wurde Berichten zufolge in Operationen im Iran und Venezuela eingesetzt. Aber nach einem Streit mit dem Pentagon darüber, ob Anthropic beschränken konnte, wie sein Modell verwendet wurde, bezeichnete das Verteidigungsministerium Anthropic als Versorgungskettenrisiko, und Präsident Trump forderte, dass die Regierungsnutzung der KI des Unternehmens innerhalb von sechs Monaten endet.
OpenAI füllte die Lücke und kündigte am 28. Februar eine Vereinbarung an, wonach das Militär seine Technologien in klassifizierten Umgebungen nutzen kann. Elon Musks xAI hat einen ähnlichen Deal für Grok erreicht. Die Geschwindigkeit dieser kommerziellen Beziehungen – und die begrenzte öffentliche Kontrolle, die sie erhalten haben – hat Kritik von KI-Sicherheitsforschern und Rüstungskontrollexperten gezogen, die argumentieren, dass die KI-Integration in tödliche Militärsysteme schneller voranschreitet als Governance-Rahmen es bewältigen können.
Dieser Artikel basiert auf Berichten der MIT Technology Review. Lesen Sie den Originalartikel.

