Der Crash, der viral ging
Ein im Internet zirkulierendes Dashcam-Video zeigt einen Tesla Cybertruck, der mit Autobahngeschwindigkeit fährt und gegen eine Betonüberführungsschranke auf einer Houston-Autobahn prallt. Der Fahrer behauptet, dass das Fahrzeug zum Zeitpunkt des Unfalls unter Full Self-Driving betrieben wurde. Das Video hat eine der umstrittensten Debatten in Elektrofahrzeugkreisen wieder belebt: Wofür ist das FSD genau verantwortlich und wann?
Elon Musk antwortete auf das Video in den sozialen Medien und zitierte Teslas interne Telemetrieleitsätze. Nach Angaben von Musk zeigen die Daten, dass der Fahrer das FSD etwa vier Sekunden vor dem Aufprall deaktivierte — was den Crash außerhalb des autonomen Betriebsbereichs mit kleinem Spielraum platziert. Teslas Unterstützer griffen dies schnell auf, um die Geschichte als FUD zu bezeichnen, eine Abkürzung für Angst, Unsicherheit und Zweifel, ein Begriff, der in Tesla-Gemeinden häufig verwendet wird, um kritische Berichterstattung zu ignorieren.
Das, was das Video wirklich zeigt
Wenn man sich das Dashcam-Filmmaterial sorgfältig ansieht, erzählt es eine kompliziertere Geschichte. Der Cybertruck scheint auf einer geraden Linie auf einer Autobahn zu fahren, ohne plötzliche Spurwechsel, ohne unregelmäßige Bewegungen und ohne erkennbare Fahrereingriffe in den Sekunden vor dem Aufprall. Das Fahrzeug driftet dann mit wenig sichtbarem Bremsen oder Ausweichmaßnahmen gegen die Schranke.
Kritiker argumentieren, dass auch wenn die Logs bestätigen, dass der Fahrer das FSD technisch vier Sekunden vor dem Aufprall deaktivierte, dieser Rahmen den Punkt verfehlt. Ein Fahrer, der über einen längeren Zeitraum die Hände weg und geistig nicht engagiert ist — auf das System verlassend, um das Fahrzeug zu lenken — kann nicht erwartet werden, dass er seine Situationsbewusstsein in vier Sekunden vollständig wiedererlangt und angemessen reagiert. Dieses Phänomen, bekannt als Automatisierungsmüdigkeit oder Automatisierungsüberraschungseffekt, ist in der Luft- und Kfz-Sicherheitsforschung gut dokumentiert.
Das Kernproblem ist nicht, ob das FSD im Moment des Aufpralls technisch aktiv war. Es ist, ob das FSD-Design — und die Art und Weise, wie Tesla das System vermarktet — Bedingungen schafft, die Fahrer unvorbereitet lässt, um einzugreifen, wenn das System ausfällt oder sich deaktiviert.


