OpenAI trennt den Zugang für Cyberabwehr von den KI-Sicherheitsregeln für Verbraucher

OpenAI hat eine spezialisierte Modellvariante namens GPT-5.5-Cyber für geprüfte Sicherheitsforscher veröffentlicht. Das markiert einen bemerkenswerten Wandel darin, wie führende KI-Unternehmen mit Dual-Use-Fähigkeiten umgehen. Laut dem vorliegenden Bericht ist das System über ein Programm namens „Trusted Access for Cyber“ verfügbar und für Verteidiger gedacht, die kritische Infrastruktur schützen, nicht für die breite Öffentlichkeit.

Der Schritt spiegelt eine Spannung wider, die KI-Labore immer schwerer ignorieren können. Dieselben Schutzmechanismen, die bösartige Hacking-Anfragen blockieren, behindern auch legitime Verteidigungsarbeit, darunter das Reproduzieren von Schwachstellen, die Prüfung von Patches und die Analyse von Schadsoftware. OpenAIs Antwort besteht darin, den Zugang in Stufen zu unterteilen, statt eine einheitliche Sicherheitsstrategie beizubehalten.

Wie das Zugriffsmodell funktioniert

Dem Bericht zufolge verwendet OpenAI jetzt drei Zugriffsstufen. Das öffentliche Modell behält die Standardbeschränkungen bei. Eine mittlere Stufe lockert Filter für defensive Sicherheitsarbeit. GPT-5.5-Cyber, die permissivste Stufe, ist für autorisierte Penetrationstests und verwandte Aufgaben mit hoher Sensibilität reserviert.

OpenAI sagt, dass das System weiterhin Aktionen wie das Stehlen von Passwörtern oder Angriffe auf Systeme Dritter blockiert. Doch die im Bericht genannten Beispiele machen deutlich, dass die Cyber-Variante ein Maß an operativer Detailtiefe erlaubt, das Mainstream-KI-Systeme normalerweise verweigern. In einer dort beschriebenen Demonstration erzeugte das Modell nicht nur Exploit-Code für eine bekannte Schwachstelle, sondern führte den Angriff auch gegen einen Testserver aus, übernahm die Kontrolle über die Maschine und las Systeminformationen zurück.

Das ist keine kleine Anpassung der Richtlinie. Es ist eine formale Anerkennung, dass fortgeschrittene Cyberabwehr zunehmend KI-Systeme erfordert, die Dinge tun können, die außerhalb kontrollierter Umgebungen nicht von offensiven Methoden zu unterscheiden wären.