Das AI-Abstimmungsproblem des Militärs
Das US Department of Defense folgt seit der Gründung des Joint Artificial Intelligence Center im Jahr 2018 und seinem Nachfolger, dem Chief Digital and Artificial Intelligence Office im Jahr 2022, einer aggressiven AI-Adoptionsstrategie. Doch mit der wachsenden Anzahl von AI-Verträgen mit etablierten Rüstungsunternehmen über Silicon-Valley-Startups bis hin zu führenden Modellabors ist eine neue Herausforderung entstanden: die Verbreitung inkompatible AI-Werkzeuge, verschiedene Modellversionen und inkonsistente Funktionsniveaus in verschiedenen Kommandos und Militärbranchen.
Die Antwort des Pentagon ist eine Bemühung, seine AI-Anbieter zu standardisieren und alle auf einer gemeinsamen Grundlage zu betreiben, die die Behörden als dasselbe Baseline bezeichnen — einen gemeinsamen Satz von Modellversionen, APIs, Sicherheitsrichtlinien und Leistungsmaßstäben, die es verschiedenen militärischen Systemen ermöglichen würden, zusammenzuarbeiten und Überwachungsbeamten ein kohärentes Bild davon bieten, welche AI-Fähigkeiten wo eingesetzt sind.
Claude im militärischen Kontext
Zu den AI-Systemen, bei denen das Pentagon den Zugang standardisieren möchte, gehört Claude von Anthropic — eines der führenden großen Sprachmodelle, das von verschiedenen verteidigungsbezogenen Unternehmern und direkt von DoD-Organisationen für Aufgaben wie Dokumentenanalyse, Geheimdienstverarbeitung und Entscheidungsunterstützung verwendet wurde. Die Aufnahme von Claude neben Systemen von OpenAI, Google und Microsoft spiegelt das Bestreben des Pentagon wider, Optionalität über mehrere führende AI-Anbieter zu bewahren, anstatt von einem einzigen Anbieter abhängig zu werden.
Anthropic hatte eine komplexere Beziehung zu Militärverträgen als einige seiner Konkurrenten. Die Richtlinie für akzeptable Nutzung des Unternehmens verbietet die Verwendung von Claude für Waffenentwicklung, Anschläge auf kritische Infrastruktur und mehrere andere Kategorien schädlicher Anwendungen. Die Grenze zwischen verbotenen und zulässigen Anwendungsfällen in einem militärischen Kontext ist jedoch nicht immer klar — Dokumentenanalyse, Logistikoptimierung und Entscheidungsunterstützung sind oberflächlich neutrale Anwendungen, die in der Praxis zu militärischen Operationen, einschließlich tödlicher Operationen, beitragen können.
Der Rücktritt von OpenAIs Robotik-Leiterin Caitlin Kalinowski über den Pentagon-Deal des Unternehmens — mit Bedenken hinsichtlich tödlicher Autonomie und unzureichender Überlegung — unterstreicht die ethischen Spannungen, denen sich führende AI-Unternehmen gegenübersehen, wenn sie mit militärischen Kunden arbeiten. Anthropic hat die spezifischen Bedingungen, unter denen Claude für DoD-Kunden verfügbar ist, oder welche Überwachungsmechanismen seine militärische Nutzung regeln, nicht öffentlich offengelegt.
AI für militärisches Targeting: das Kernproblem
Die empfindlichste Anwendung von AI in militärischen Kontexten ist das Targeting — der Einsatz automatisierter Systeme zur Identifizierung, Priorisierung und teilweise zur Unterstützung bei Angriffen auf feindliche Ziele. Die Doktrin der US-Armee erfordert eine menschliche Genehmigung für Entscheidungen über den Einsatz tödlicher Gewalt, aber die Rolle der AI bei der Verarbeitung von Sensordaten, der Identifizierung potenzieller Ziele und der Präsentation von Empfehlungen an menschliche Entscheidungsträger hat sich in den letzten Jahren dramatisch erweitert.
Project Maven, das AI-gestützte Bildanalyseprogramm des Pentagon, verarbeitet Drohnenüberwachungsaufnahmen, um Ziele von Interesse zur menschlichen Überprüfung zu identifizieren. Die AI trifft keine endgültige tödliche Entscheidung — ein Mensch tut das — aber sie bestimmt, welche Informationen den Menschen erreichen und wie diese dargestellt werden, was Fragen zur aussagekräftigen Qualität der menschlichen Beaufsichtigung aufwirft, die die Doktrin nominell erfordert.
Die Standardisierungsbemühung ist teilweise eine Reaktion auf Überwachungsbedenken: Wenn verschiedene AI-Systeme unterschiedliche Ausgaben für die gleichen Eingaben geben oder wenn niemand einen vollständigen Überblick darüber hat, welche AI-Systeme zu welchen Entscheidungen beitragen, wird eine aussagekräftige menschliche Beaufsichtigung von AI-gestütztem Targeting äußerst schwierig. Standardisierung schafft Überwachbarkeit — die Fähigkeit zu wissen, welches Modell, welche Version, unter welchen Sicherheitseinstellungen an einer bestimmten Entscheidungskette beteiligt war.
Die Frage der ethischen Architektur
Kritiker aus der AI-Ethik-Gemeinde argumentieren, dass Standardisierung ein Governance-Problem anspricht, aber nicht die grundsätzlichere ethische Frage löst: ob AI überhaupt in Targeting-Entscheidungen verwendet werden sollte und wenn ja, unter welchen Einschränkungen. Alle militärischen AI-Anbieter auf die gleiche Grundlage zu stellen bedeutet zu definieren, was diese Grundlage ist — welche Werte, welche Sicherheitsrichtlinien, welche verbotenen Verwendungen in den Standard eingebaut sind. Dieser Definitionsprozess findet größtenteils außerhalb der öffentlichen Sichtbarkeit statt.
Die Einsätze, um dies richtig zu machen, sind hoch. AI-Systeme, die Vorurteile in Targeting-Entscheidungen einführen, die Bedrohungsbewertungen halluzinieren oder durch gegnerische Eingaben manipuliert werden, könnten zu katastrophalen Fehlern in Kampfsituationen führen. Pentagons Standardisierungsbemühung ist eine Anerkennung dieses Risikos — aber die Angemessenheit der Antwort wird letztendlich daran beurteilt, wie gut die Systeme unter betrieblichen Bedingungen funktionieren, die nicht vollständig vorhergesehen werden können.
Dieser Artikel basiert auf Berichten von MIT Technology Review. Lesen Sie den Originalartikel.

