Standardisierung von AI in der Verteidigung

Das Pentagon unternimmt konzertierte Anstrengungen, um seine wachsende Reihe von Anbietern für künstliche Intelligenz auf das auszurichten, was Beamte als "dieselbe Grundlage" beschreiben, und etabliert gemeinsame Standards für die Entwicklung, das Testen, die Bereitstellung und die Verwaltung von AI-Systemen innerhalb des Militärs. Die Initiative, die vom Leiter der Forschung des Verteidigungsministeriums dargelegt wurde, spiegelt die Herausforderungen der Verwaltung eines expandierenden AI-Ökosystems wider, das Dutzende von Unternehmen, mehrere Militärdienste und ein breites Spektrum von Anwendungen von der Logistikoptimierung bis zur Unterstützung von Entscheidungen auf dem Schlachtfeld umfasst.

Da die DOD in den letzten Jahren ihre AI-Einführung beschleunigt hat, hat sie mit einer vielfältigen Reihe von Technologieanbietern Verträge abgeschlossen, von großen Verteidigungsunternehmen wie Lockheed Martin und Raytheon über Silicon-Valley-Firmen wie Palantir und Anduril bis hin zu kleineren spezialisierten AI-Startups. Jedes dieser Unternehmen bringt seine eigenen Entwicklungspraktiken, Testmethodologien und Ansätze zu Sicherheit und Ethik mit sich. Das Ergebnis ist eine AI-Landschaft innerhalb des Militärs, die technisch heterogen ist und in einigen Fällen schwer konsistent zu verwalten ist.

Was "dieselbe Grundlage" in der Praxis bedeutet

Der Standardisierungsaufwand umfasst mehrere Dimensionen der AI-Entwicklung und -Bereitstellung:

  • Testen und Bewertung: Die DOD möchte, dass alle AI-Anbieter vergleichbare Methoden zum Testen der Leistung, Zuverlässigkeit und Fehlermodi ihrer Systeme verwenden. Dies umfasst standardisierte Benchmark-Aufgaben, gemeinsame Bewertungsmetriken und gemeinsame Testinfrastruktur, die es ermöglicht, verschiedene Systeme auf Augenhöhe zu vergleichen.
  • Sicherheit und Robustheit: AI-Systeme, die in militärischen Kontexten eingesetzt werden, müssen Mindeststandards für Widerstand gegen gegnerische Angriffe, elegante Verschlechterung bei Eingaben außerhalb der Trainingsverteilung und vorhersehbares Verhalten unter den extremen Bedingungen erfüllen, die für militärische Operationen charakteristisch sind.
  • Datenverwaltung: Die Initiative umfasst Standards dafür, wie Trainingsdaten beschafft, gekennzeichnet, gespeichert und zwischen Anbietern gemeinsam genutzt werden. Datenqualität ist ein kritischer Bestimmungsfaktor für die Leistung von AI-Systemen, und inkonsistente Datenpraktiken zwischen Anbietern können zu inkonsistenten Ergebnissen führen.
  • Interoperabilität: Militärische AI-Systeme müssen zunehmend miteinander und mit bestehender Kommando- und Kontrollinfrastruktur kommunizieren. Gemeinsame Schnittstellenstandards und Datenformate sind für die Ermöglichung dieser Integration unerlässlich.
  • Dokumentation und Nachverfolgbarkeit: Anbieter wird erwartet, dass sie detaillierte Aufzeichnungen darüber führen, wie ihre Systeme trainiert wurden, welche Daten verwendet wurden, welche Tests durchgeführt wurden und welche Einschränkungen identifiziert wurden. Diese Dokumentation ist für operative Zuverlässigkeit und rechtliche Verantwortung von entscheidender Bedeutung.

Die ethische Dimension

Einer der am meisten beobachteten Aspekte des Pentagon-Standardisierungsaufwands ist sein Schnittpunkt mit den AI-Ethik-Prinzipien des Ministeriums. Die DOD verabschiedete 2020 ihre AI-Ethik-Prinzipien und etablierte fünf Verpflichtungen: dass AI-Systeme verantwortungsvoll, gerecht, nachverfolgbar, zuverlässig und regierbar sein sollten. Diese Prinzipien wurden von einigen als sinnvoller Rahmen für verantwortungsvolle militärische AI gelobt und von anderen kritisiert, weil sie zu vage sind, um tatsächliche Entwicklungs- und Bereitstellungsentscheidungen zu beschränken.

Der Leiter der DOD-Forschung betonte, dass der Standardisierungsaufwand darauf abzielt, diese Prinzipien umzusetzen, nicht sie zu ersetzen. Durch die Etablierung konkreter Standards für Tests, Dokumentation und Sicherheit, die alle Anbieter erfüllen müssen, zielt das Ministerium darauf ab, seinen ethischen Verpflichtungen praktische Kraft zu verleihen. Die Idee ist, dass abstrakte Prinzipien wie "Nachverfolgbarkeit" bedeutsam werden, wenn sie in spezifische Anforderungen für Protokollierung, Auditing und Erklärung von AI-Systemkentscheidungen übersetzt werden.

Dies ist besonders wichtig, wenn sich das Militär zu folgenreicheren AI-Anwendungen bewegt. AI-Systeme, die Lieferkettenlogistik optimieren, werfen andere ethische Bedenken auf als AI-Systeme, die Ziele identifizieren oder die Anwendung von Gewalt empfehlen. Der Standardisierungsaufwand zielt darauf ab, sicherzustellen, dass das Governance-Framework mit den Einsätzen der Anwendung angemessen skaliert.

Herausforderungen der Standardisierung

Die Etablierung gemeinsamer AI-Standards in der gesamten Verteidigungsunternehmung ist aus mehreren Gründen eine formidable Herausforderung. Die Technologie selbst entwickelt sich schnell, und Standards, die heute angemessen sind, könnten in wenigen Jahren obsolet werden. Die Vielfalt der AI-Anwendungen innerhalb des Militärs bedeutet, dass ein universeller Ansatz unwahrscheinlich zu funktionieren ist; Standards für ein System zur Verarbeitung natürlicher Sprache, das Geheimdienstberichte zusammenfasst, unterscheiden sich notwendigerweise von Standards für ein Computer-Vision-System, das autonome Fahrzeuge leitet.

Es gibt auch Spannungen zwischen Standardisierung und Innovation. Die Verteidigungs-AI-Gemeinschaft hat bewusst ein vielfältiges Ökosystem von Anbietern kultiviert, weil verschiedene Unternehmen unterschiedliche Ansätze mitbringen, und diese Vielfalt treibt Innovation voran. Zu starre Standards könnten die Experimente ersticken, die zu Durchbruchsfähigkeiten führen, während zu lockere Standards die realen Risiken der Bereitstellung von AI in militärischen Kontexten möglicherweise nicht ansprechen.

Das Navigieren dieser Spannung erfordert, dass die DOD ein Standards-Framework übernimmt, das rigoros genug ist, um Sicherheit und Rechenschaftspflicht zu gewährleisten, während es flexibel genug ist, um das schnelle Tempo der AI-Entwicklung zu berücksichtigen. Beamte deuten an, dass sie einen mehrstufigen Ansatz verfolgen, mit Basislaufanforderungen, die auf alle AI-Systeme angewendet werden, und zusätzlichen Anforderungen, die mit der Empfindlichkeit und Bedeutsamkeit der Anwendung skalieren.

Branchenreaktion

Die Reaktion der Verteidigungs-AI-Industrie auf den Standardisierungsaufwand war allgemein positiv, aber nicht ohne Bedenken. Große Verteidigungsunternehmen, die an umfangreiche regulatorische Anforderungen gewöhnt sind, begrüßen in der Regel klare Standards, da diese Unsicherheit verringern und einen Wettbewerbsvorteil für Unternehmen mit Ressourcen zur Einhaltung bieten. Kleinere Startups haben jedoch Bedenken geäußert, dass belastende Compliance-Anforderungen kleinere Unternehmen unverhältnismäßig beeinträchtigen und das Innovationstempo verlangsamen könnten.

Die DOD hat angegeben, dass sie Industrie-Eingaben bei der Entwicklung ihres Standards-Frameworks anstrebt und anerkennt, dass einseitige Top-Down-Standards weniger wahrscheinlich wirksam sind als gemeinsam entwickelte. Es wurden mehrere Industrie-Arbeitsgruppen einberufen, um Rückmeldungen zu vorgeschlagenen Testmethodologien, Dokumentationsanforderungen und Sicherheits-Benchmarks zu geben.

Das Ergebnis dieses Standardisierungsaufwands wird Auswirkungen weit über das Militär hinaus haben. Als größter einzelner Verbraucher von AI-Technologie in den USA werden die Standards-Entscheidungen der DOD beeinflussen, wie AI-Unternehmen ihre Produkte entwickeln und wie die breitere Technologieindustrie AI-Sicherheit und Governance angeht. Es richtig zu machen ist nicht nur für die nationale Sicherheit, sondern für die Flugbahn der AI-Entwicklung insgesamt wichtig.

Dieser Artikel basiert auf Berichten von Defense One. Lesen Sie den Originalartikel.