Ein Abkommen mit weitreichenden Auswirkungen

Es ist etwas mehr als zwei Wochen vergangen, seit OpenAI eine bedeutsame Vereinbarung mit dem US Department of Defense erreichte, die die Nutzung seiner KI-Systeme in klassifizierten Militärumgebungen ermöglicht. Das Abkommen hat sowohl unter KI-Forschern, Experten für Rüstungskontrolle als auch unter Befürwortern der Bürgerrechte erhebliche Aufmerksamkeit und Besorgnis hervorgerufen. Angesichts der aktiven Beteiligung der US-Streitkräfte an Militäroperationen gegen Iran – einschließlich Angriffen auf die Kharg-Insel – erscheinen die Auswirkungen des Abkommens unmittelbarer als zunächst erwartet.

Die grundlegenden Parameter des Abkommens sind bekannt: OpenAI wird die militärische Nutzung seiner Modelle in klassifizierten Umgebungen gestatten, wobei Sam Altman öffentlich erklärt hat, dass das Abkommen dem Militär nicht erlaubt, mit der Technologie des Unternehmens autonome Waffen zu entwickeln, und weiter behauptet, dass die Vereinbarung Anwendungen zur inneren Überwachung verhindert. Eine Prüfung der tatsächlichen Bedingungen des Abkommens zeigt jedoch, dass beide Einschränkungen in erster Linie durch die eigenen Richtlinien des Pentagon zu autonomen Waffensystemen durchgesetzt werden – Richtlinien, die nach internationalen Maßstäben ziemlich großzügig sind.

Was die Pentagon-Richtlinien zu autonomen Waffensystemen tatsächlich besagen

Die Richtlinie des Department of Defense zu autonomen Waffensystemen schreibt vor, dass letale autonome Waffen ein angemessenes Maß an menschlichem Urteilsvermögen bei Tötungsentscheidungen bewahren müssen. Kritiker dieser Formulierung haben konsistent darauf hingewiesen, dass sie nicht spezifiziert, was angemessen bedeutet, dass sie keine menschliche Genehmigung für jede einzelne Zielentscheidung erfordert, und dass sie explizit semi-autonome Systeme erlaubt, bei denen ein Mensch Zielkategorien oder Angriffsparameter im Voraus genehmigt, ohne jeden einzelnen Einsatz zu billigen.

Dies schafft eine erhebliche Lücke zwischen OpenAIs öffentlicher Darstellung – wir werden nicht zulassen, dass das Militär autonome Waffen entwickelt – und was das tatsächliche Abkommen erlaubt. Gemäß den eigenen Standards des Pentagon könnte ein KI-System, das Sensordaten verarbeitet, Ziele identifiziert und Angriffe ohne individuelle menschliche Genehmigung pro Schuss ausführt, immer noch als konform gelten, wenn ein Mensch die Zielbestimmungsregeln im Voraus genehmigt hat. Ob OpenAIs Modelle in ein solches System integriert werden könnten, ohne gegen das Abkommen zu verstoßen, ist nicht öffentlich bekannt.

Iran als Testfall

Der laufende Konflikt mit Iran macht diese Fragen konkret statt hypothetisch. Das US Central Command führt Angriffsoperationen in der Persischen Golf-Region durch, koordiniert Reaktionen auf asymmetrische iranische Marinebedohungen und verwaltet Geheimdiensterfassung über ein komplexes Einsatzgebiet. Jede dieser Aktivitäten beinhaltet Kategorien von KI-Anwendungen, in die OpenAIs Modelle möglicherweise integriert werden könnten.

Auf der Geheimdienst-Seite haben sich große Sprachmodelle als fähig erwiesen, schnell Informationen aus mehreren Quellen zu synthetisieren, fremdsprachige Kommunikation zu übersetzen und Muster in strukturierten Daten zu identifizieren – alle Aufgaben, die für die militärische Nachrichtenanalyse relevant sind. Diese Anwendungen werden allgemein als Primärnutzungen von kommerzieller KI im Militär angesehen und werfen weniger ethische Bedenken auf als autonome Zielerfassung.

Besorgniserregender sind mögliche Anwendungen bei der Zielidentifikation oder Bewertung von Trefferwirkungen, bei denen KI-Systeme Bilder oder Signalaufklärung verarbeiten könnten, um Militärgüter zu identifizieren, Bewegungen zu verfolgen oder Angriffsergebnisse zu bewerten. Dies sind Bereiche, in denen die Unterscheidung zwischen einem Entscheidungsunterstützungswerkzeug und einem autonomen System verschwommen wird – und wo die spezifische Sprache von OpenAIs Abkommen bestimmt, ob eine bestimmte Anwendung zulässig ist.

Die Überwachungseinschränkung und ihre Grenzen

Altmans Behauptung, dass das Abkommen die Nutzung von OpenAIs Technologie zur inneren Überwachung verhindert, ist komplizierter als sie klingt. Die Einschränkung beschreibt die Erfassung und Analyse von Daten über US-Bürger – gilt aber nicht für die Geheimdiensterfassung im Ausland. Im Kontext von Militäroperationen würde die Überwachung gegnerischer Militärkommunikation, das Tracking von Schiffsbewegungen und die Überwachung iranischer Regimekommunikation alle als Geheimdiensterfassung im Ausland qualifizieren und würden nicht durch eine Einschränkung der inneren Überwachung abgedeckt.

Befürworter der Bürgerrechte, die sich auf Bedenken zur inneren Überwachung konzentrieren, priorisieren möglicherweise nicht die Anwendungen der Auslandsnachrichtenerfassung, die Militärkommandanten am wertvollsten finden. Aber die Vermischung der beiden in öffentlichen Mitteilungen deutet darauf hin, dass OpenAIs öffentliche Darstellung möglicherweise nicht die volle Bandbreite der Militäranwendungen erfasst, die das Abkommen ermöglicht.

Was OpenAIs Motivationen zu sein scheinen

OpenAI ist nicht das erste große Technologieunternehmen, das die Spannung zwischen kommerzieller KI-Entwicklung und militärischer Anwendung navigiert. Google sah sich mit erheblichem internem Widerstand gegen seinen Project Maven-Vertrag von 2018 konfrontiert und lehnte letztendlich eine Verlängerung ab. Microsoft und Amazon haben ihre Verteidigungsverträge trotz einigen internen Widerstands weiter erweitert.

OpenAIs Entscheidung, in den klassifizierten Militärmarkt einzutreten, deutet auf eine strategische Berechnung hin, dass die Konkurrenz um Regierungs-KI-Verträge für die langfristige Position des Unternehmens wichtig ist, besonders da es mit Anthropic, Google DeepMind und verteidigungsfokussierten KI-Unternehmen wie Scale AI und Palantir konkurriert. Das KI-Budget des Pentagon wächst schnell, und das Unternehmen, das sich früh als der vertrauenswürdige KI-Partner der Regierung etabliert, könnte sich erhebliche langfristige Vorteile sichern.

Dieser Artikel basiert auf Berichterstattung des MIT Technology Review. Lesen Sie den Originalartikel.