Ein entscheidender Tag für die AI-Sicherheit
In dem, was Kritiker als Wendepunkt für die Industrie der künstlichen Intelligenz bezeichnen, kündigte Anthropic am Dienstag umfangreiche Änderungen seiner Responsible Scaling Policy an und eliminierte die harten Sicherheitsmaßnahmen, die seit der Gründung des Unternehmens zentral für seine Identität waren. Das Timing war auffällig — die Ankündigung kam genau an dem Tag, an dem Berichte auftauchten, dass Verteidigungsminister Pete Hegseth das Unternehmen unter Druck setzt, dem US-Militär unbegrenzten Zugang zu seinem Claude AI-Modell zu geben.
Seit mehr als zwei Jahren war Anthropics RSP eines der konkretesten Sicherheitsverpflichtungen der AI-Industrie. Die Richtlinie etablierte klare rote Linien: Wenn Modelle des Unternehmens bestimmte Fähigkeitsschwellen ohne angemessene Sicherheitsmaßnahmen erreichten, würde die Entwicklung gestoppt. Dieses Versprechen ist nun weg, ersetzt durch ein flexibleres System von "Risikoberichten" und "Frontier Safety Roadmaps", das das Unternehmen sagt, besser die Realitäten der wettbewerbsintensiven AI-Landschaft widerspiegelt.
Die Begründung hinter dem Wandel
Anthropic stellte die Veränderungen als pragmatische Antwort auf ein Kollektivaktionsproblem dar. "Zweieinhalb Jahre später ist unsere ehrliche Bewertung, dass einige Teile dieser Änderungstheorie so gelaufen sind, wie wir gehofft haben, aber andere nicht," schrieb das Unternehmen in seinem aktualisierten Richtliniendokument. Das grundlegende Argument ist unkompliziert: Wenn ein verantwortungsvoller Entwickler pausiert, während Konkurrenten vorwärts rasen, könnte das Ergebnis eine Welt sein, die von den am wenigsten sorgfältigen Akteuren geprägt ist, nicht von den bedachtesten.
"Wir waren der Meinung, dass es für uns keinen Sinn machen würde, das Training von AI-Modellen zu stoppen," sagte Jared Kaplan, Chief Science Officer von Anthropic, dem Time-Magazin. "Wir hielten es bei der schnellen Entwicklung von AI wirklich nicht für sinnvoll, einseitige Verpflichtungen zu machen... wenn Konkurrenten schnell vorwärts machen." Dies ist ein vertrautes Argument in der Technologie — die Idee, dass verantwortungsvolle Akteure an der Grenze bleiben müssen, um sicherzustellen, dass sicherheitsfreundliche Perspektiven beeinflussen, wie sich mächtige Technologie entwickelt.
Aber die Begründung sitzt unbequem neben den wachsenden kommerziellen Erfolgen des Unternehmens. Anthropic hat nur diesen Monat $30 Milliarden an Neuinvestitionen aufgebracht, was die Bewertung auf $380 Milliarden brachte. Seine Claude-Modelle haben weit verbreitete Anerkennung erhalten, besonders für Coding-Anwendungen. Die neuesten Versionen wurden vom Unternehmen selbst als seine sichersten beschrieben — was die Frage aufwirft, warum Sicherheitsverpflichtungen gerade in dem Moment geschwächt werden müssen, wenn Fähigkeiten und Ressourcen ihren Höhepunkt erreichen.
Das Pentagon-Ultimatum
Der Elefant im Raum ist die gleichzeitige Druckkampagne des Verteidigungsministeriums. Nach Berichten von Axios hat Verteidigungsminister Hegseth Anthropic-CEO Dario Amodei bis Freitag Zeit gegeben, dem Militär unbegrenzten Zugang zu Claude zu gewähren, oder mit Konsequenzen zu rechnen. Diese Konsequenzen könnten das Heranziehen des Defense Production Act, die Severing bestehender Verträge des Unternehmens mit der Verteidigung oder die Bezeichnung von Anthropic als Supply-Chain-Risiko umfassen — ein Schritt, der andere Pentagon-Auftragnehmer zwingen würde zu zertifizieren, dass sie Claude in ihren Workflows nicht nutzen.
Claude ist dem Bericht nach das einzige AI-Modell, das derzeit für die empfindlichsten militärischen Operationen verwendet wird. "Der einzige Grund, warum wir noch mit diesen Leuten sprechen, ist, dass wir sie brauchen und wir brauchen sie jetzt," sagte ein Verteidigungsbeamter zu Axios. Das Modell wurde dem Bericht nach während der jüngsten militärischen Operationen in Venezuela verwendet, ein Thema, das Amodei mit Verteidigungspartner Palantir aufgebracht hat.
Anthropic hat dem Bericht nach angeboten, seine Nutzungsrichtlinien für das Pentagon anzupassen, hat aber Grenzen gezogen gegen die Erlaubnis, das Modell für Massenüberwachung von Amerikanern oder Waffensystemen zu verwenden, die ohne menschliches Eingreifen abfeuern. Ob diese Grenzen gegenüber Regierungsdruck bestehen bleiben, bleibt eine offene Frage.
Die Besorgnis des Frosch-Kochens
Sicherheitsforscher haben eine Reihe von Reaktionen geäußert. Chris Painter, Direktor der gemeinnützigen Organisation METR, beschrieb die Änderungen als verständlich, aber potenziell bedrohlich. Er lobte den Schwerpunkt auf transparente Risikoberichte, äußerte aber Bedenken hinsichtlich eines "Frosch-Kochens"-Effekts — der Idee, dass wenn harte Sicherheitslinien flexible Richtlinien werden, jedes einzelne Zugeständnis vernünftig erscheint, während die kumulative Richtung beunruhigend ist.
Painter merkte an, dass der neue RSP suggeriert, dass Anthropic "glaubt, dass es seine Sicherheitspläne in den Triage-Modus verschieben muss, weil Methoden zur Bewertung und Risikomilderung nicht mit dem Tempo der Fähigkeiten Schritt halten." Er fügte blunt hinzu: "Dies ist weiterer Beweis dafür, dass die Gesellschaft nicht auf die potenziellen katastrophalen Risiken vorbereitet ist, die AI darstellt."
Die Parallele zu Googles Entwicklung ist schwer zu ignorieren. Der Suchgigant arbeitete berüchtigt unter einem "Don't be evil"-Motto, bevor er es stillschweigend aus seinem Verhaltenskodex entfernte, als kommerzielle Druck wuchsen. Ob Anthropics Trajektorie einem ähnlichen Bogen folgt, wird davon abhängen, was das Unternehmen in den kommenden Wochen und Monaten tut — besonders in seiner Sackgasse mit dem Pentagon.
Was kommt als nächstes
Das neue RSP-Framework ersetzt binäre Stopp/Start-Entscheidungen durch gestufte Bewertungen und öffentliche Offenlegungen. Theoretisch bietet dies eine differenziertere Sicherheitsgovernance. In der Praxis befürchten Kritiker, dass es den einzigen Mechanismus entfernt, der eine Pause bei der Entwicklung in einem kritischen Moment hätte erzwingen können.
Für die breitere AI-Industrie ist die Botschaft klar: Selbst die Unternehmen, die sich lautstärksten zur Sicherheit verpflichtet haben, stellen fest, dass dieses Engagement schwer zu halten ist, wenn die Bewertungen in die Höhe schießen, die Konkurrenz zunimmt und die Regierung anruft. Die Frage ist nicht, ob die AI-Entwicklung verlangsamt wird — sie wird es offensichtlich nicht. Es ist, ob die Leitplanken, die neu aufgebaut werden, stark genug sind, um Bedeutung zu haben.
Dieser Artikel basiert auf Berichten von Engadget. Lesen Sie den ursprünglichen Artikel


