Meta weitet die automatisierte Altersdurchsetzung auf seinen Plattformen aus

Meta verschärft die Systeme zur Altersverifikation und Altersschätzung auf Instagram und Facebook, nachdem es wiederholt Fälle gegeben haben soll, in denen Kinder bestehende Prüfungen mit einfachen Tricks umgangen haben, darunter das Tragen eines falschen Schnurrbarts. Dem bereitgestellten Quelltext zufolge setzt das Unternehmen KI-Tools ein, die in Beiträgen, Kommentaren, Biografien, Beschreibungen, Bildern und Videos nach altersbezogenen Signalen suchen, um Nutzer unter 13 Jahren zu identifizieren und ihre Konten zu entfernen.

Der Schritt spiegelt ein breiteres Branchenproblem wider: Das selbst angegebene Alter lässt sich leicht manipulieren, während Online-Plattformen zunehmend unter Druck stehen, zu beweisen, dass ihre Schutzmechanismen für Minderjährige in der Praxis funktionieren und nicht nur auf dem Papier. Metas Antwort ist, eine größere Bandbreite an Signalen zu verwenden und textliche Hinweise mit visuellen Merkmalen wie Körpergröße und Knochenstruktur zu kombinieren.

Wie das System funktioniert

Meta sagt, dass die neuen Tools kontextbezogene Hinweise analysieren, die das Alter eines Nutzers verraten könnten. Dazu gehören Verweise auf Schuljahre oder Geburtstagsfeiern in Texten sowie die automatisierte Analyse geteilter Bilder. Das Unternehmen betont ausdrücklich, dass es sich nicht um Gesichtserkennung handelt und das System nicht darauf ausgelegt ist, bestimmte Personen zu identifizieren. Stattdessen soll es schätzen, ob ein Konto wahrscheinlich von jemandem genutzt wird, der jünger ist, als es die Regeln der Plattform erlauben.

Wenn Meta vermutet, dass ein Konto von einem Kind unter 13 Jahren betrieben wird, wird das Konto gesperrt. Der Nutzer muss dann sein Alter über die Verfahren des Unternehmens erneut bestätigen, um wieder Zugriff zu erhalten. Geschieht das nicht, wird das Profil dauerhaft gelöscht.

Warum Meta den Kurs ändert

Der berichtete Auslöser ist klar: Herkömmliche Altersbarrieren haben sich als viel zu leicht zu umgehen erwiesen. Wenn ein System stark davon abhängt, was Nutzer in ein Formular eingeben, funktioniert es nur so gut wie die Ehrlichkeit der Person, die es ausfüllt. Für Kinder, die in soziale Räume für Erwachsene oder Jugendliche gelangen wollen, kann die Hürde trivial sein. Der Quelltext sagt, dass Hunderte von Kindern die Beschränkungen umgangen haben, was die praktische Schwäche der bestehenden Methoden unterstreicht.

Metas neuer Ansatz ist Teil dessen, was der Artikel als KI-gestützte Sicherheitsstrategie beschreibt. Anstatt sich auf ein einziges angegebenes Geburtsdatum zu verlassen, versucht das Unternehmen, das Alter aus Verhalten, Inhalten und physischer Erscheinung abzuleiten. Das könnte die Erkennungsraten verbessern, wirft aber auch kompliziertere Fragen zu Fehlern, Datenschutz und Widerspruchsverfahren auf.

Auch Teenager-Konten sind Teil des Plans

Die Richtlinie beschränkt sich nicht auf Kinder unter 13 Jahren. Meta sagt außerdem, dass es die Technologie ausweiten werde, die Nutzer im Alter von 13 bis 15 Jahren erkennt und sie automatisch in Teenager-Konten einordnet. Diese Konten verfügen standardmäßig über Inhaltsbeschränkungen und aktivierte elterliche Kontrollen, die das Unternehmen als sicherere Basis für jüngere Teenager darstellt.

Das ist ein wichtiger Unterschied. Das Unternehmen versucht nicht nur, verbotene minderjährige Nutzer zu entfernen. Es versucht auch, zulässige Teenager in eine stärker eingeschränkte Produktumgebung einzuordnen. Praktisch nutzt Meta die automatisierte Alterserkennung sowohl für den Ausschluss als auch für die Zuordnung zu einer Produktstufe.

Die kommenden Abwägungen

Der offensichtliche Vorteil ist eine stärkere Durchsetzung bestehender Plattformregeln. Wenn das System gut funktioniert, bleiben weniger Kinder unter 13 Jahren auf Diensten, die sie eigentlich nicht beherbergen sollen, und mehr jüngere Teenager erhalten strengere Standard-Schutzmaßnahmen.

Der Preis einer stärkeren automatisierten Durchsetzung ist jedoch das Risiko von Fehlalarmen. Jedes System, das das Alter aus Texten und Bildern schätzt, kann Fehler machen, insbesondere bei mehrdeutigen Inhalten oder bei Menschen, deren Erscheinung nicht den Erwartungen des Modells entspricht. Metas Anforderung, dass gesperrte Nutzer ihr Alter erneut bestätigen, schafft ein Sicherheitsnetz, verlagert aber auch die Last auf legitime Nutzer, die plötzlich nachweisen müssen, wer sie sind.

Ein größeres Signal für die Branche

Meta begann laut Quelltext 2024 in den Vereinigten Staaten, Australien, Kanada und dem Vereinigten Königreich mit dem Einsatz von Altersverifikationstechnologie für Instagram-Nutzer. Die jüngste Ausweitung zeigt, dass das Unternehmen über die Verifikation bei der Anmeldung oder auf Abruf hinausgeht und zu einer kontinuierlichen Überwachung von Kontosignalen übergeht, um das Alter im Zeitverlauf zu schätzen.

Das ist eine bedeutende operative Veränderung. Sie deutet darauf hin, dass große Plattformen zunehmend bereit sind, KI nicht nur zur Moderation von Inhalten, sondern auch zur Kategorisierung der Menschen einzusetzen, die sie erstellen. Sollte sich Metas System als wirksam erweisen, könnten sich ähnliche Methoden in der gesamten Social-Media-Branche verbreiten. Sollten sich Fehler häufen, könnte dies die regulatorische Kontrolle darüber verschärfen, wie Plattformen mit Identität, Minderjährigen und biometrieähnlichen Schlussfolgerungen umgehen.

In jedem Fall ist die Botschaft klar: Altersgrenzen auf Basis von Selbstauskünften reichen für Plattformen, die unter rechtlichem, politischem und öffentlichem Druck stehen, Kinder fernzuhalten oder sie in stärker eingeschränkte Erfahrungen zu lenken, nicht mehr aus.

Dieser Artikel basiert auf einer Berichterstattung von Wired. Den Originalartikel lesen.