Die Schulbus-Vorfälle in Austin sind zu einem Testfall für die Behauptungen über autonomes Lernen geworden
Waymo hat seit Langem eine der zentralen Verheißungen des autonomen Fahrens betont: dass eine Flotte selbstfahrender Fahrzeuge aus kollektiver Erfahrung lernen und sich nach jedem Sonderfall oder Fehler verbessern kann. Doch eine Reihe von Vorfällen in Austin, Texas, stellt infrage, wie diese Verheißung in der Praxis verstanden wird.
Laut Berichten, die auf öffentlichen Unterlagen und bundesstaatlichen Ermittlungen beruhen, hatten Waymo-Fahrzeuge in Austin über Monate hinweg Schwierigkeiten, bei blinkenden roten Lichtern und ausgefahrenen Stopparmen vor Schulbussen anzuhalten. Verantwortliche des Austin Independent School District warfen den Fahrzeugen vor, in mindestens 19 Fällen während des Ein- und Aussteigevorgangs von Schülern illegal und gefährlich an Bussen vorbeigefahren zu sein.
Das Problem war so ernst, dass Waymo Anfang Dezember einen bundesstaatlichen Rückruf auslöste, der sich auf mindestens 12 der bei der National Highway Traffic Safety Administration gemeldeten Vorfälle bezog. Das Unternehmen teilte den Regulierungsbehörden mit, es habe bereits Softwareänderungen entwickelt, um das Verhalten anzugehen. Doch das Problem verschwand nicht sofort.
Auch nach dem Rückruf sollen die Vorfälle weitergegangen sein
Aus den im Bericht zitierten Unterlagen geht hervor, dass die Schulbehörden in Austin und Waymo über gewöhnliche Fehlersuche hinausgingen. Mitte Dezember veranstaltete der Schulbezirk auf einem Parkplatz eine halbtägige Datenerfassungsaktion, bei der Busse und Stopparm-Ausrüstung zusammengezogen wurden, damit Waymo zusätzliche Informationen über das Verhalten der Fahrzeuge rund um die blinkenden Warnsysteme sammeln konnte.
Diese Art der Koordination deutet darauf hin, dass beide Seiten das Problem als technisch lösbar und dringend behandelten. Schulbusse unterliegen einem strengen Sicherheitsregime, weil Kinder die Straße unvorhersehbar überqueren können. Deshalb ist die Einhaltung von Stoppsignalen nicht verhandelbar. Ein fahrerloses System, das in diesem Kontext wiederholt versagt, ist nicht einfach nur unvollkommen. Es arbeitet unterhalb einer gesetzlichen und öffentlichen Sicherheitsgrenze.
Besonders bemerkenswert ist, dass die Vorfälle Berichten zufolge auch nach dem Rückruf und nach dieser gezielten Informationssammlung weitergingen. Bis Mitte Januar hatte der Schulbezirk mindestens vier weitere Fälle von Vorbeifahrten an Schulbussen gemeldet. Ein Beamter der Polizeibehörde des Bezirks brachte den Gegensatz scharf auf den Punkt: Menschliche Verstöße würden oft schon nach einem einzigen Bußgeldbescheid dazulernen, aber es scheine nicht, dass das automatisierte Fahrsystem durch seine Software-Updates oder Rückrufmaßnahmen auf dieselbe Weise lerne.
Die tiefere Frage ist, was „lernen“ überhaupt bedeutet
Unternehmen für autonome Fahrzeuge beschreiben Lernen auf Flottenebene oft als zentralen Vorteil gegenüber menschlichen Fahrern. Das Konzept ist überzeugend: Der Fehler eines Fahrzeugs kann theoretisch zur Lektion für alle Fahrzeuge werden. Doch Austins Erfahrung zeigt, dass dieser Prozess langsamer, enger oder brüchiger sein kann, als das Marketingkürzel vermuten lässt.
Der reale Verkehr ist voller seltener Kombinationen aus Signalen, Umgebungen, Lichtverhältnissen, lokalen Ausrüstungsvarianten und Verhaltensannahmen. Schulbusse sind ein besonders sensibles Beispiel, weil sie rechtliche Signale, ungewöhnliche Fahrzeuggeometrie und risikoreiche Straßenszenarien vereinen. Ein autonomes System braucht möglicherweise nicht nur mehr Beispiele, sondern die richtigen Arten von Beispielen, die richtigen Labels und ausreichend robuste Modellaktualisierungen, bevor ein Problem auf die gesamte Flotte bezogen sinnvoll behoben ist.
Diese Lücke zwischen theoretischem Lernen und operativer Anpassung steht nun im Zentrum des Austin-Falls. Wenn ein Unternehmen das Problem identifiziert, einen Rückruf ausgibt, gezielt lokale Daten sammelt und dennoch weiterhin Vorfälle beobachtet, werden Regulierer und Öffentlichkeit wahrscheinlich fragen, wie Behauptungen über autonomes Lernen gemessen und geprüft werden sollten.
Warum das über Austin hinaus wichtig ist
Die Vorfälle in Austin kommen zu einem ungünstigen Zeitpunkt für den breiteren Sektor der autonomen Fahrzeuge. Robotaxi-Entwickler expandieren kommerziell und argumentieren politisch, ihre Systeme könnten Menschen in Sachen Sicherheit am Ende übertreffen. Doch diese Argumente hängen nicht nur von der durchschnittlichen Leistung ab, sondern auch vom Umgang mit seltenen, folgenreichen Szenarien.
Die Einhaltung von Regeln gegenüber Schulbussen ist eines dieser Szenarien. Es ist für die Öffentlichkeit leicht nachvollziehbar, stark reguliert und emotional aufgeladen, weil Kinder betroffen sind. Das macht ein wiederholtes Versagen besonders schädlich für das Vertrauen. Selbst wenn solche Fälle nur einen kleinen Teil der insgesamt gefahrenen Kilometer ausmachen, haben sie ein überproportionales Gewicht für die öffentliche Einschätzung der Einsatzbereitschaft.
Der Vorfall legt außerdem nahe, dass der Weg vom Software-Fix zur realen Lösung möglicherweise nicht so unmittelbar ist, wie Außenstehende annehmen. Machine-Learning-Systeme „lernen“ nicht im beiläufigen menschlichen Sinn. Sie sind auf Engineering-Pipelines, Validierungsarbeit, Simulation, Einführungspläne und Sicherheitsbarrieren angewiesen. Das heißt: Das Vorhandensein von Daten und das Vorhandensein von Verbesserung sind nicht dasselbe.
Für Waymo ist das Austin-Problem nicht nur ein lokales Betriebsproblem. Es ist ein Test dafür, ob die zentrale Erzählung des autonomen Fahrens über skalierbares Lernen der öffentlichen Prüfung standhält, wenn wiederholte Edge-Case-Fehler öffentlich fortbestehen. Für Regulierer ist es eine Erinnerung daran, dass Rückrufsprache und Lernbehauptungen möglicherweise genauer geprüft werden müssen, als es gewöhnliche Zusicherungen zu Software-Updates nahelegen.
Der breitere Markt für autonome Fahrzeuge wird genau hinschauen. Wenn selbstfahrende Systeme dauerhaftes öffentliches Vertrauen gewinnen sollen, müssen sie nicht nur zeigen, dass sie nach Fehlern Daten sammeln, sondern dass sie diese Daten in zeitnahe, überprüfbare Verhaltensänderungen an den Orten umsetzen können, an denen Sicherheit am wichtigsten ist.
Dieser Artikel basiert auf einer Berichterstattung von Wired. Den Originalartikel lesen.
Originally published on wired.com




