Ein Frontier-Modell wird zuerst auf Verteidigung ausgerichtet
Anthropic sagt, dass es einer Koalition aus Technologie- und Sicherheitsorganisationen eine Vorschauversion eines neuen KI-Modells zur Verfügung stellt, als Teil einer Cybersicherheitsinitiative, die darauf abzielt, Schwachstellen in kritischer Software-Infrastruktur zu finden, bevor Angreifer es tun.
Die Initiative mit dem Namen Project Glasswing vereint Unternehmen und Organisationen wie Amazon, Apple, Broadcom, Cisco, CrowdStrike, die Linux Foundation, Microsoft und Palo Alto Networks. Anthropic sagte, das Modell werde für defensive Sicherheitsarbeit genutzt und die Erkenntnisse würden breiter über die Branche hinweg geteilt.
Der Schritt spiegelt eine wachsende Spannung im Zentrum der KI-Entwicklung wider. Leistungsfähigere Modelle können das Risiko offensiver Cyber-Missbrauchs erhöhen, sie können Verteidigern aber auch neue Werkzeuge an die Hand geben, um Schwachstellen in einem Umfang und mit einer Tiefe aufzudecken, die herkömmliche Tests nur schwer erreichen.
Was das Modell laut Anthropic leisten kann
Laut dem Bericht entdeckte Anthropic starke Sicherheitsanwendungen, während das Unternehmen das von ihm als „Claude Mythos Preview“ bezeichnete Modell für Programmier- und Denkaufgaben trainierte. Das Unternehmen sagte, das Modell habe in den vergangenen Wochen bereits Tausende von Zero-Day-Schwachstellen identifiziert, viele davon kritisch.
Zu den von Anthropic genannten Beispielen gehörten ein 27 Jahre alter Bug in OpenBSD und eine 16 Jahre alte Schwachstelle in weit verbreiteter Videosoftware, die automatisierte Testwerkzeuge nicht gefunden hatten. Das Unternehmen beschrieb außerdem interne Tests gegen 1.000 Open-Source-Repositories, bei denen Mythos Preview deutlich schwerwiegendere Crash-Ergebnisse erzeugte als frühere Modelle.
Nach Anthropic's Beschreibung verursachte die vorherige Generation viele Abstürze niedrigerer Stufen und nur einen einzigen Absturz der Stufe 3, während Mythos Preview 595 Abstürze über die Stufen 1 und 2, einige in den Stufen 3 und 4 sowie vollständige Control-Flow-Hijacks auf 10 vollständig gepatchten Zielen erzeugte. Anthropic sagte, das Modell sei nicht speziell darauf trainiert worden, diese Exploits auszuführen, und die Fähigkeit sei aus breiteren Fortschritten bei Programmierung, Denken und autonomem Verhalten entstanden.
Warum kritische Software im Fokus steht
Project Glasswing konzentriert sich auf kritische Software-Infrastruktur, weil Fehler in weit verbreiteten Grundlagen auf Regierungen, Unternehmen und Open-Source-Ökosysteme ausstrahlen können. Anthropic sagte, es erweitere den Zugang über die anfängliche Partnergruppe hinaus auf rund 40 weitere Organisationen, die kritische Software entwickeln oder warten.
Das Unternehmen verpflichtet sich außerdem zu bis zu 100 Millionen US-Dollar an Modellnutzungsguthaben und 4 Millionen US-Dollar an direkten Spenden an Open-Source-Sicherheitsorganisationen. Diese Kombination deutet auf ein Bemühen hin, nicht nur die Leistungsfähigkeit des Modells zu beweisen, sondern einen defensiven Workflow rund um Software anzustoßen, die große Teile der digitalen Wirtschaft trägt.
Wenn das Modell Schwachstellen zuverlässig identifizieren kann, die sich über Jahre in ausgereiften Codebasen gehalten haben, dann könnte sein Wert vor allem dort am höchsten sein, wo Software am ältesten, am vertrauenswürdigsten und mit bestehenden Werkzeugen am schwersten umfassend zu prüfen ist.
Die doppelschneidige Natur stärkerer KI
Die Ankündigung erfolgt vor dem Hintergrund wachsender Sorge, dass fortgeschrittene Modelle Cyberangriffe ausgefeilter machen könnten. Anthropic räumte diese Spannung direkt ein und argumentierte, dass Frontier-Fähigkeiten in den kommenden Monaten erheblich voranschreiten könnten und Verteidiger schnell handeln müssten, um Schritt zu halten.
Dieser Rahmen ist wichtig. Anthropic präsentiert das Modell nicht einfach als Produktivitätshelfer für Sicherheitsforscher. Es präsentiert es als Teil eines Rennens zwischen offensiver und defensiver Fähigkeit, in dem Verzögerung den Angreifern zugutekommen könnte.
In der Struktur der Veröffentlichung steckt auch ein implizites politisches Argument. Die Vorschau ist begrenzt, nicht allgemein verfügbar und an eine klar definierte Sicherheitsmission gebunden. Das deutet darauf hin, dass Anthropic einen kontrollierten Bereitstellungspfad für Hochleistungs-Systeme in Bereichen demonstrieren will, in denen der Nutzen real ist, das Missbrauchspotenzial aber ebenfalls ungewöhnlich hoch ist.
Ein entstehendes Modell für den Einsatz von KI in der Sicherheit
Die Initiative könnte selbst über Anthropic hinaus bedeutsam werden. Wenn Project Glasswing erfolgreich ist, könnte es zum Vorbild dafür werden, wie Frontier-Labore sensible Fähigkeiten einführen: begrenzter Zugang, geprüfte Partner, zweckgebundene Nutzung und die Erwartung, dass Ergebnisse nach außen geteilt statt gehortet werden.
Anthropic sagte außerdem, man befinde sich in laufenden Gesprächen mit US-Regierungsvertretern über die offensiven und defensiven Cyberfähigkeiten des Modells. Das verweist auf eine weitere Realität, die den Sektor derzeit prägt: Cybersicherheit ist für fortgeschrittene KI-Labore kein Randthema mehr. Sie entwickelt sich rasch zu einem der zentralen Tests dafür, wie diese Systeme gesteuert, bewertet und in kritische Infrastruktur integriert werden.
Fürs Erste ist die Aussage des Unternehmens klar. Es glaubt, dass Mythos-Klassenfähigkeit die Softwareverteidigung substanziell stärken kann, und versucht, diese These gemeinsam mit einigen der größten Institutionen der Technologie zu belegen.
Worauf als Nächstes zu achten ist
Die nächste Phase wird wichtiger sein als die Schlagzeile. Die Kernfragen sind, ob Partnerorganisationen die Aussagen von Anthropic in realen Workflows bestätigen, ob die gefundenen Schwachstellen wirksam behoben und offengelegt werden und ob dieselbe Modellklasse bei weiter steigenden Fähigkeiten auf defensive Nutzung ausgerichtet bleiben kann.
KI-Unternehmen haben in den vergangenen zwei Jahren argumentiert, dass ihre Systeme das Programmieren neu prägen werden. Project Glasswing prüft eine engere, schwierigere These: ob sie Software-Sicherheit so verändern können, dass das Risiko spürbar sinkt, bevor Gegner aufschließen.
Dieser Artikel basiert auf einer Berichterstattung von Fast Company. Den Originalartikel lesen.




