Eine schnelle Kehrtwende bei öffentlichem Code
NHS England zieht Software, die sie geschrieben hat, aus der öffentlichen Sichtbarkeit zurück und weist Mitarbeitende an, dass Quellcode-Repositories standardmäßig privat sein müssen, wie es in dem bereitgestellten Quellentext beschrieben wird. Der Schritt markiert einen deutlichen Wandel für eine Institution, deren Software traditionell öffentlich gemacht wurde, weil sie von Steuerzahlern finanziert wurde und von anderen wiederverwendet werden konnte.
Ausgelöst wird die Änderung durch die Sorge, dass immer leistungsfähigere KI-Systeme öffentlichen Code aufnehmen, Schwachstellen ableiten und Angreifern helfen könnten, Sicherheitslücken zu identifizieren. Die neue Richtlinie setzt Berichten zufolge eine Frist bis zum 11. Mai, um Repositories privat zu machen, sofern es keinen ausdrücklich genehmigten Grund gibt, sie öffentlich zu lassen.
Der KI-Auslöser: Mythos
Der Quellentext sagt, NHS England habe speziell ein KI-System von Anthropic namens Mythos als Grund für die neue Haltung genannt. Die Richtlinie argumentiert, dass öffentliche Repositories nicht nur Quellcode offenlegen, sondern auch Architekturentscheidungen, Konfigurationsdetails und Kontextinformationen, die mit fortschreitender KI-Fähigkeit in großskaliger Codeanalyse und Schlussfolgerung ausgenutzt werden könnten.
Diese Sorge spiegelt einen breiteren Wandel im Denken zur Cybersicherheit wider. Jahrelang befürchteten Verteidiger menschliche Angreifer, die exponierte Systeme und Code durchforsten. Die neue Angst ist, dass KI einen Teil dieser Arbeit automatisiert und Software-Artefakte in einem Umfang verarbeitet, der die Zeit zwischen Offenlegung und Ausnutzung verkürzt.
Warum Kritiker sagen, der Schritt könnte nach hinten losgehen
Im bereitgestellten Bericht zitierte Sicherheitsexperten argumentieren, die Richtlinie sei unnötig und kontraproduktiv. Ein Grund ist, dass Open-Source-Software lange auf einer anderen Sicherheitstheorie beruhte: Öffentliche Sichtbarkeit kann die Qualität verbessern, weil mehr Menschen den Code prüfen, testen und beheben können. Das Schließen von Repositories könnte die Transparenz verringern, ohne Schwachstellen tatsächlich zu beseitigen.
Der Quellentext merkt außerdem an, dass das von der britischen Regierung unterstützte AI Security Institute Mythos geprüft und festgestellt habe, dass es nur „kleine, schwach verteidigte und verwundbare Unternehmenssysteme“ angreifen könne, ohne dass ein tatsächlich sicheres System oder Netzwerk breit gefährdet sei. Wenn diese Einschätzung zutrifft, könnte NHS England überreagieren.
Offene Regierung versus defensive Geheimhaltung
Dieser Streit liegt an der Schnittstelle zweier politischer Instinkte, die inzwischen häufiger aufeinanderprallen. Die eine Seite sagt, öffentlich finanzierte digitale Infrastruktur solle offen geteilt werden, um Doppelarbeit zu vermeiden, öffentliche Dienste zu verbessern und anderen zu erlauben, auf staatlich finanzierter Arbeit aufzubauen. Die andere sagt, defensive Geheimhaltung werde wertvoller, weil KI die Kosten der Aufklärung für Angreifer senkt.
NHS Englands neue Regel bevorzugt klar die zweite Sicht, zumindest vorerst. Der Preis ist jedoch erheblich. Sobald Code standardmäßig geschlossen ist, wird Zusammenarbeit schwieriger, externe Prüfung enger und die Öffentlichkeit sieht weniger von Software, die Gesundheitsabläufe und Datensysteme prägen kann.
Ein Vorgeschmack auf eine breitere Debatte
Die Entscheidung des NHS ist nicht nur für Großbritannien wichtig, weil viele öffentliche Institutionen ähnliche Fragen stellen. Sollten Sicherheitsbedrohungen im KI-Zeitalter die Standardannahmen hinter Open-Source-Veröffentlichungen verändern? Oder opfert ein Rückzug von Offenheit langfristige Widerstandsfähigkeit zugunsten eines kurzfristigen Gefühls von Kontrolle?
Die Antwort wird kaum pauschal ausfallen. Einige Codebasen legen womöglich sensible operative Details offen, die nicht öffentlich sein sollten. Andere werden vielleicht unsicherer, wenn externe Prüfung verschwindet. Die Herausforderung besteht darin, diese Fälle evidenzbasiert zu unterscheiden, statt aus Angst heraus.
Was die Entscheidung signalisiert
Das unmittelbare Signal ist, dass fortgeschrittene KI-Modelle bereits reale institutionelle Politik beeinflussen, selbst wenn die technische Evidenz umstritten bleibt. NHS England wartet nicht auf einen Konsens, bevor sie ihre Software-Handhabung ändert. Sie bewegt sich vorsorglich hin zu einer standardmäßig geschlossenen Haltung.
Ob dieser Ansatz die Sicherheit verbessert, bleibt unklar. Sicher ist nur: Die Debatte über KI-Sicherheit ist über die Theorie hinaus. Sie verändert inzwischen Beschaffungsregeln, Veröffentlichungsstandards und die Grenzen digitaler Transparenz in öffentlichen Organisationen.
Wenn mehr Regierungen dem NHS-Weg folgen, könnte eine der größten indirekten Folgen von KI ein leiseres Internet sein: weniger öffentlicher Code, weniger offene Repositories und eine Neudefinition dessen, wie öffentliche digitale Infrastruktur aussehen soll.
Dieser Artikel basiert auf einem Bericht von New Scientist. Zum Originalartikel.
Originally published on newscientist.com



