Ein Rückschlag für Washingtons Vorgehen gegen einen wichtigen KI-Anbieter
Ein Bundesrichter hat Anthropic im eskalierenden Konflikt mit der US-Regierung einen wichtigen frühen Erfolg verschafft und eine einstweilige Verfügung erlassen, die Behörden daran hindert, Anordnungen umzusetzen, mit denen das Unternehmen als Lieferkettenrisiko eingestuft wird, solange der Fall läuft. Doch innerhalb weniger Stunden widersprach die Pentagon-Führung öffentlich und argumentierte, dass ein Teil des Regierungsverbots gegen Anthropic weiterhin in Kraft sei.
Der Streit dreht sich um den Konflikt zwischen der bundesstaatlichen Beschaffungshoheit und dem Versuch eines KI-Unternehmens, Grenzen für die Nutzung seiner Modelle zu setzen. Breaking Defense berichtet, dass Präsident Donald Trump, nachdem Anthropic sich geweigert hatte, eine Vertragsklausel zu akzeptieren, die „jede rechtmäßige Nutzung“ seiner Claude AI durch das Militär erlaubte, am 27. Februar die Bundesbehörden anwies, die Nutzung der Technologie von Anthropic sofort einzustellen. Verteidigungsminister Pete Hegseth schrieb anschließend, kein Auftragnehmer, Zulieferer oder Partner, der mit dem US-Militär Geschäfte mache, dürfe mit Anthropic kommerziell tätig sein.
Das Urteil: wahrscheinlich Vergeltung, keine neutrale Risikobewertung
Am 4. März folgte die Regierung mit zwei formellen Schreiben, die Anthropic nach zwei unterschiedlichen Rechtsgrundlagen als Lieferkettenrisiko einstuften: eine galt für die gesamte Bundesregierung, die andere speziell für das Verteidigungsministerium. Anthropic reagierte mit zwei Klagen und focht sowohl die breitere bundesweite Maßnahme als auch die speziell auf die Verteidigung bezogene Einstufung an.
Die einstweilige Verfügung von Richterin Rita Lin setzt die Durchsetzung der Anordnungen nun für die 17 Bundesbehörden aus, die im kalifornischen Verfahren als Beklagte genannt sind, bis der Rechtsstreit entschieden ist. In einer auffälligen Passage, die Breaking Defense zitiert, schrieb Lin, der Aktenstand lege „stark nahe“, dass die für die Einstufung von Anthropic genannten Gründe vorgeschoben gewesen seien und dass die eigentliche Absicht der Regierung eine rechtswidrige Vergeltung gewesen sei. Mit der Gewährung der Verfügung kam sie zu dem Schluss, dass Anthropic seine Klage wahrscheinlich gewinnen werde, eine hohe Hürde in diesem Verfahrensstadium.
Diese Formulierung ist wichtig. Einstweilige Verfügungen sind keine Endurteile, aber sie zeigen, dass ein Gericht eine ernsthafte Wahrscheinlichkeit sieht, dass die angegriffene Maßnahme unzulässig war. Praktisch stört die Anordnung einen hochkarätigen Regierungsversuch, einen führenden KI-Anbieter vom Bundesgeschäft abzuschneiden, und warnt davor, wie weit Behörden gehen können, wenn kommerzielle Streitigkeiten mit Sicherheitsrhetorik überlagert werden.
Die Reaktion des Pentagons zeigt, dass der Kampf noch lange nicht vorbei ist
Die Verfügung hat den zentralen politischen und rechtlichen Konflikt nicht gelöst. Breaking Defense berichtet, dass Emil Michael, Unterstaatssekretär für Verteidigung und Chief Technology Officer, in sozialen Medien argumentierte, die Anordnung enthalte „Dutzende sachliche Fehler“, und erklärte, die Lieferkettenrisiko-Einstufung bleibe nach dem gesamtstaatlichen Gesetz, das seiner Darstellung nach nicht der Zuständigkeit von Richterin Lin unterliege, „in vollem Umfang in Kraft und wirksam“.
Diese Reaktion zeigt eine tiefere Fragmentierung darin, wie die Regierung ihre Position verteidigen könnte. Selbst bei einer gerichtlichen Anordnung scheinen Beamte bereit, zu argumentieren, dass getrennte Rechtsgrundlagen zumindest einen Teil der praktischen Wirkung der Blacklist erhalten. Das eröffnet die Möglichkeit paralleler Gerichtsverfahren, widersprüchlicher Behördenauslegungen und anhaltender Unsicherheit für Auftragnehmer, die wissen müssen, ob Anthropic-Tools in Bundesaufträgen zulässig sind.
Der Fall ist ungewöhnlich bedeutsam, weil es nicht nur um die Geschäftsinteressen eines einzelnen Anbieters geht. Es geht darum, ob ein KI-Unternehmen militärische Vertragsklauseln, die es für zu weit gefasst hält, ablehnen kann, ohne mithilfe von Beschaffungshoheiten ausgeschlossen zu werden, die normalerweise mit traditionelleren Lieferkettenbedenken verbunden sind. Sollten Gerichte zu dem Schluss kommen, dass die Regierung diese Befugnisse als Strafe für eine politische Meinungsverschiedenheit genutzt hat, könnte das Urteil beeinflussen, wie Auseinandersetzungen über KI-Governance bei Bundesaufträgen ausgetragen werden.
Warum das für die KI-Branche wichtig ist
Für KI-Unternehmen wird der Streit um Anthropic zu einem frühen Test dafür, wie viel Einfluss die US-Regierung gegenüber kommerziellen Modellanbietern erwartet, die Bundesgeschäfte wollen, aber auch Grenzen für den Einsatz definieren möchten. Diese Spannung ist besonders in Sicherheitskontexten ausgeprägt, in denen Behörden maximale Flexibilität anstreben und Anbieter Leitplanken in Bezug auf Überwachung, Waffeneinsatz oder Reputationsrisiken bewahren wollen.
Der Rechtsstreit setzt auch den Begriff „Lieferkettenrisiko“ unter Druck. Traditionell weckt diese Formulierung Assoziationen mit Zuverlässigkeit, Kompromittierung, ausländischem Einfluss oder verborgenen Schwachstellen in kritischen Systemen. Hier deutet die erste Einschätzung der Richterin darauf hin, dass die Einstufung möglicherweise für etwas ganz anderes verwendet wurde: Vergeltung nach einem Streit über Vertragsbedingungen. Hält diese Interpretation stand, könnte der Fall einschränken, wie aggressiv Beschaffungsinstrumente gegen KI-Anbieter eingesetzt werden dürfen, die bestimmte Regierungsforderungen ablehnen.
Vorerst ist das Ergebnis gemischt, aber unbestreitbar bedeutsam. Anthropic hat eine wichtige frühe Entscheidung gewonnen, und der Regierung wurde gesagt, zentrale Maßnahmen während des laufenden Verfahrens auszusetzen. Gleichzeitig signalisieren Pentagon-Beamte, dass sie die praktischen Folgen der Verfügung nicht in dem Umfang akzeptieren, den Anthropic vermutlich annimmt.
Für die Branche ist die Botschaft klar. Die rechtliche Architektur für KI in der Regierung wird noch in Echtzeit geschrieben, und einige ihrer wichtigsten Regeln könnten nicht aus Gesetzen oder Behördenleitlinien entstehen, sondern aus erbitterten Gerichtsschlachten über Vertragsklauseln, Vergeltung und die Grenzen exekutiver Macht.
Dieser Artikel basiert auf Berichten von Breaking Defense. Zum Originalartikel.




