Ein Kalte-Kriegs-Werkzeug für eine neue technologische Ära
Die Beziehung zwischen dem U.S. Verteidigungsministerium und einem der weltweit führenden Künstliche-Intelligenz-Unternehmen hat einen kritischen Punkt erreicht. Verteidigungsminister Pete Hegseth hat Anthropic ein klares Ultimatum gestellt: Erklären Sie sich bis Freitag bereit, die uneingeschränkte militärische Nutzung seiner KI-Technologie zu ermöglichen, oder sehen Sie sich mit dem vollständigen Ausschluss aus der Pentagon-Lieferkette konfrontiert.
Die Drohung kam während eines angespannten Treffens in Washington am Dienstag zustande, wo Hegseth Anthropic-CEO Dario Amodei zu dem einberief, was Quellen als konfrontatives Gespräch über die Weigerung des Unternehmens beschrieben, dem Militär ungehinderten Zugang zu seinen KI-Modellen für klassifizierte Operationen zu gewähren. Unter den umstrittensten Forderungen waren Bestimmungen für inländische Überwachungsfähigkeiten und autonome tödliche Missionen ohne direkte menschliche Kontrolle.
Vielleicht am auffälligsten war Hegsetts Anrufung des Defense Production Act, ein Gesetz aus der Kalter-Kriegs-Zeit, das dem Präsidenten umfassende Befugnis gibt, die inländische Industrie zur Erfüllung nationaler Verteidigungsprioritäten zu zwingen. Das Gesetz wurde ursprünglich konzipiert, um sicherzustellen, dass Fabriken zur Kriegsproduktion übergehen konnten, wurde aber nie verwendet, um ein KI-Unternehmen zur Übergabe seiner Technologie zu zwingen – was diese Drohung in der Geschichte der amerikanischen Technologiepolitik beispiellos macht.
Anthropics sicherheitsorientierte Haltung unter Druck
Anthropic hat sich lange in der KI-Industrie durch seine Betonung von Sicherheitsforschung und verantwortungsvoller Bereitstellung ausgezeichnet. Das Unternehmen, das von ehemaligen OpenAI-Forschern Dario und Daniela Amodei gegründet wurde, hat seine Marke um das Konzept der Constitutional AI aufgebaut – Systeme, die mit eingebauten ethischen Schutzvorrichtungen ausgelegt sind, um Missbrauch zu verhindern.
Diese sicherheitsorientierte Philosophie hat das Unternehmen nun auf Kollisionskurs mit dem Pentagon's wachsendem Appetit auf KI-Integration in militärischen Operationen gebracht. Während Anthropic nicht allen Verteidigungsverträgen widersprochen hat, hat es strikte Grenzen um bestimmte Anwendungen gezogen, besonders um solche, die autonome tödliche Gewalt ohne sinnvolle menschliche Kontrolle und Massenüberwachungsprogramme, die inländische Bevölkerungen ins Visier nehmen, beinhalten.
Die Position des Unternehmens spiegelt eine breitere Debatte innerhalb der KI-Industrie wider, wo ethische Grenzen zu ziehen sind. Andere große KI-Unternehmen, darunter OpenAI und Google, haben sich auch mit Militärverträgen auseinandergesetzt, obwohl die meisten bereiter waren, Bedingungen für die Zusammenarbeit mit Verteidigungsbehörden zu verhandeln. Anthropics härtere Linie hat es zu einem Blitzableiter in Washingtons zunehmend aggressivem Streben, künstliche Intelligenz zu bewaffnen, gemacht.
Der Defense Production Act: Eine ungewöhnliche Waffe
Der Defense Production Act wurde 1950, während der frühen Phasen des Koreakriegs, in Kraft gesetzt. Sein ursprünglicher Zweck war unkompliziert: sicherzustellen, dass die amerikanische Industrie die Produktion schnell verlagern könnte, um militärische Anforderungen zu unterstützen. Im Laufe der Jahrzehnte wurde er für alles Mögliche angerufen, von der Halbleiterherstellung bis zu pandemiebedingten medizinischen Lieferketten.
Aber die Anwendung der DPA zur Erzwingung eines KI-Unternehmens zur Gewährung des Zugangs zu seinen Modellen stellt eine grundlegend andere Art der Intervention dar. Im Gegensatz zu physischen Gütern sind KI-Modelle intellektuelle Eigenschaft, deren Fähigkeiten und Risiken tief verwoben sind. Ein Unternehmen zu zwingen, Sicherheitsschutzvorrichtungen aus seiner Technologie zu entfernen, wirft Fragen auf, die weit über traditionelle Beschaffungsdispute hinausgehen.
Rechtsexperten haben angemerkt, dass die Verwendung der DPA auf diese Weise wahrscheinlich sofortige gerichtliche Anfechtungen hätte. Das Gesetz wurde für Produktions- und Lieferkettenprioritäten konzipiert, nicht um die internen Sicherheitsrichtlinien eines Unternehmens zur Deployment seiner Technologie zu überschreiben. Jeder Versuch, es einzuberufen, könnte einen Präzedenzfall mit weitreichenden Implikationen für den gesamten Technologiesektor schaffen.
Reaktionen der Industrie und breitere Auswirkungen
Der Stillstand hat Schockwellen durch das Silicon Valley gesendet. Andere KI-Unternehmen beobachten genau, da sie sich bewusst sind, dass das Ergebnis neue Normen für die Interaktion der Regierung mit dem privaten KI-Sektor etablieren könnte. Mehrere Branchenführer haben privat Bedenken geäußert, dass das Nachgeben gegenüber den Pentagon-Forderungen die Sicherheitsforschung untergraben könnte, die viele als wesentlich für die Verhinderung von katastrophalem KI-Missbrauch betrachten.
Parlamentarische Reaktionen waren gemischt. Falken in den Armed Services-Ausschüssen haben Hegsetts Position unterstützt und argumentiert, dass nationale Sicherheit Vorrang vor Unternehmens-Sicherheitspräferenzen haben muss. Andere, besonders Mitglieder des Senate Commerce Committee, haben davor gewarnt, dass das Starkmachen gegen KI-Unternehmen Talent und Innovation ins Ausland treiben könnte, was letztendlich Amerikas Wettbewerbsposition schwächen würde.
Die Europäische Union hat auch bemerkt. EU-Beamte haben auf die Konfrontation als Beweis für ihren eigenen mehr regulatorischen Ansatz zur KI-Governance hingewiesen, wobei ein hochrangiger Diplomat angemerkt hat, dass die Episode die Risiken unterstreicht, KI-Sicherheitsentscheidungen den Launen politischer Beauftragter zu überlassen.
Was geschieht als Nächstes
Die Freitag-Frist rückt näher. Wenn Anthropic sich weigert zu entsprechen, könnte Hegseth seine Drohung verwirklichen, das Unternehmen aus den Verteidigungsbeschaffungskanälen zu entfernen, wodurch ein bedeutender Einnahmestrom unterbrochen wird und eine Botschaft an andere KI-Unternehmen gesendet wird. Die Option des Defense Production Act bleibt auf dem Tisch, würde aber eine viel dramatischere Eskalation mit unsicheren rechtlichen Ergebnissen darstellen.
Für Anthropic ist die Berechnung existenziell. Die Kapitulation könnte die Sicherheitsprinzipien untergraben, die ihre Unternehmensidentität definieren, und das Vertrauen von Mitarbeitern schwächen, die speziell wegen der ethischen Verpflichtungen des Unternehmens beigetreten sind. Widerstand könnte das Unternehmen nicht nur Regierungsverträge kosten, sondern auch politischen Goodwill in einer Zeit, in der die KI-Regulierung in Washington aktiv gestaltet wird.
Was immer das Ergebnis ist, die Konfrontation hat eines deutlich gemacht: Die Flitterwochen zwischen KI-Unternehmen und Regierung sind vorbei. Die Ära der höflichen Zusammenarbeit in der KI-Politik weicht harten Verhandlungen, in denen die Einsätze nicht in vierteljährlichen Erträgen gemessen werden, sondern in den grundlegenden Fragen, wie die mächtigste Technologie in der Menschheitsgeschichte regiert wird.
Dieser Artikel basiert auf Berichten von Ars Technica. Lesen Sie den ursprünglichen Artikel.


