Ein Freitag-Ultimatum und ein Kalter Krieg über AI-Ethik
Anthropic, das AI-Sicherheitsunternehmen hinter der Claude-Familie von Sprachmodellen, sieht sich einer außergewöhnlichen Konfrontation mit dem US Department of Defense gegenüber. Berichten zufolge hat das Pentagon gefordert, dass Anthropic seine Beschränkungen für militärische Anwendungen seiner AI-Technologie lockert – insbesondere seine Verbote für die Verwendung in autonomen Waffensystemen und Massenüberwachung. Anthropic hat sich geweigert, und das Defense Department hat mit einer Drohung geantwortet, den Defense Production Act einzusetzen, ein Gesetz aus der Zeit des Kalten Krieges, das es der Regierung ermöglicht, private Unternehmen zu verpflichten, die Rüstungsproduktion zu priorisieren.
Das Unternehmen hat bis Freitag Zeit, um nachzugeben. Falls Anthropic bei seiner Weigerung bleibt, könnte das Pentagon das Unternehmen rechtlich zwingen, Zugang zu seinen AI-Fähigkeiten für militärische Zwecke bereitzustellen – eine rechtliche und ethische Konfrontation ohne klaren Präzedenzfall in der AI-Branche.
Was Anthropic beschränkt hat
Seit seiner Gründung verfolgt Anthropic eine Richtlinie für akzeptable Nutzung, die die Verwendung seiner AI-Modelle für autonome Waffen, Massenüberwachung und andere Anwendungen, die das Unternehmen für unvereinbar mit seiner Mission der sicheren AI-Entwicklung hält, explizit verbietet.
Diese Beschränkungen sind in der AI-Branche nicht ungewöhnlich – die meisten großen AI-Unternehmen haben ähnliche Richtlinien – aber Anthropic hat sich besonders deutlich zu seinem Engagement für AI-Sicherheit als Kernorganisationsprinzip geäußert.
Das Unternehmen wurde von den ehemaligen OpenAI-Forschern Dario und Daniela Amodei gegründet, teilweise wegen Bedenken über das Tempo und die Governance der AI-Entwicklung. Seine Markenidentität basiert auf verantwortungsvoller AI-Entwicklung, und seine Forschung zu AI-Ausrichtung und Interpretierbarkeit hat es als führendes Unternehmen im Safety-First-Ansatz für künstliche Intelligenz positioniert. Ein Nachgeben bei militärischen Beschränkungen würde die grundlegende Erzählung des Unternehmens untergraben.
Die Bedrohung durch den Defense Production Act
Der Defense Production Act, 1950 während des Koreakriegs unterzeichnet, gibt dem Präsidenten umfassende Befugnis, die Privatindustrie anzuweisen, Verträge und Aufträge, die für die nationale Verteidigung notwendig sind, zu priorisieren. Er wurde regelmäßig für verschiedene Zwecke eingesetzt – zuletzt während der COVID-19-Pandemie, um die Produktion von medizinischen Versorgungsgütern zu erzwingen – aber seine Verwendung, um ein AI-Unternehmen zu zwingen, seine Technologie für militärische Anwendungen bereitzustellen, würde eine beispiellose Anwendung des Gesetzes darstellen.
Juristische Experten sind gespalten über die Frage, ob eine solche Anwendung einer gerichtlichen Überprüfung standhalten würde. Der DPA war für die Herstellung von Sachgütern konzipiert – Stahl, Munition, medizinische Ausrüstung – nicht um ein Softwareunternehmen zu zwingen, seine Nutzungsbedingungen zu ändern. Die Frage, ob der Zugang zu AI-Modellen ein „Produkt" darstellt, das unter dem Gesetz in Anspruch genommen werden kann, wirft neuartige rechtliche Fragen auf, die Gerichte noch nicht behandelt haben.
- Pentagon fordert Anthropic auf, Beschränkungen für AI-Nutzung in autonomen Waffen und Überwachung zu entfernen
- Anthropic hat sich geweigert und beruft sich auf sein grundlegendes Engagement für AI-Sicherheitsprinzipien
- Defense Department droht, den Defense Production Act bis Freitag einzusetzen
- Juristische Experten stellen in Frage, ob der DPA ein Softwareunternehmen zwingen kann, seine Richtlinien zu ändern
- Die Pattsituation könnte einen Präzedenzfall für die Behördenbefugnis über AI-Unternehmen setzen
Auswirkungen auf die Branche
Die Konfrontation zwischen Anthropic und dem Pentagon sendet Schockwellen durch eine AI-Branche, die sich in einer zunehmend komplexen Beziehung zu Behörden der nationalen Sicherheit zurechtfinden muss. Google, Microsoft, Amazon und OpenAI haben alle bedeutende Verteidigungsverträge, und jedes hat mit Druck von innen und außen wegen militärischer Anwendungen seiner Technologie zu kämpfen gehabt. Google zog sich 2018 berüchtigt aus Project Maven, einem Pentagon-AI-Programm, nach Protesten von Mitarbeitern zurück, obwohl das Unternehmen seine Verteidigungsarbeit seitdem ausgebaut hat.
Falls der Defense Production Act erfolgreich gegen Anthropic angewendet wird, würde dies einen Präzedenzfall schaffen, dass jedes in den USA tätige AI-Unternehmen gezwungen werden könnte, seine Technologie für militärische Zwecke bereitzustellen, unabhängig von seinen eigenen ethischen Richtlinien. Diese Aussicht könnte die AI-Sicherheitsforschung abkühlen, sicherheitsorientierte Unternehmen dazu bewegen, sich außerhalb der US-Gerichtsbarkeit zu verlegen, oder eine zweigeteilte Branche schaffen, in der Unternehmen zwischen Regierungsverträgen und Sicherheitsverpflichtungen wählen müssen.
Umgekehrt könnte es, falls sich Anthropic erfolgreich gegen die Anordnung widersetzt – ob durch rechtliche Anfechtung oder politische Verhandlung – das Prinzip stärken, dass AI-Unternehmen das Recht haben, ethische Grenzen dafür zu setzen, wie ihre Technologie verwendet wird, auch wenn der Kunde die US-Regierung ist.
Die größere Spannung
Die Pattsituation spiegelt eine grundlegende Spannung wider, die sich seit der Entwicklung großer Sprachmodelle und anderer fortgeschrittener AI-Systeme mit klaren militärischen Anwendungen aufgebaut hat. Die US-Regierung sieht AI-Dominanz als wesentlich für die nationale Sicherheit an, besonders im Wettbewerb mit China, das Ressourcen in militärische AI-Anwendungen mit weniger ethischen Einschränkungen investiert. Aus Sicht des Pentagon ist es ein Luxus, den die Nation sich nicht leisten kann, einem führenden AI-Unternehmen zu ermöglichen, sich aus Verteidigungsanwendungen zurückzuziehen.
Aus der Perspektive von Anthropic existieren die Beschränkungen genau deshalb, weil das Unternehmen glaubt, dass unkontrollierte militärische Anwendung leistungsstarker AI-Systeme katastrophale Risiken birgt – Risiken, die nicht einfach dadurch beseitigt werden, dass der Benutzer eine amerikanische Uniform trägt. Die Position des Unternehmens ist, dass einige Anwendungen von AI zu gefährlich sind, um sie zu aktivieren, unabhängig davon, wer fragt.
Wie sich diese Pattsituation auflöst, wird die Beziehung zwischen der AI-Branche und der US-Regierung in den kommenden Jahren wahrscheinlich prägen. Es ist ein Testfall dafür, ob Verpflichtungen zur AI-Sicherheit der Gravitationskraft von Imperativen der nationalen Sicherheit widerstehen können – und ob die Regierung ihre mächtigsten Rechtsinstrumente einsetzen wird, um sicherzustellen, dass dies nicht möglich ist.
Dieser Artikel basiert auf Berichten von The Decoder. Lesen Sie den Originalartikel.



