引发网络热议的碰撞

网络上流传的一段行车记录仪视频显示,一辆特斯拉Cybertruck以高速公路速度行驶,与休斯顿一条高速公路上的混凝土高架桥障碍相撞。驾驶员声称该车当时正在Full Self-Driving模式下运行。这段视频重新引发了电动汽车圈最具争议的讨论之一:FSD到底应该承担什么责任,以及何时承担责任?

埃隆·马斯克在社交媒体上回应了这段视频,引用了特斯拉内部遥测日志。根据马斯克的说法,数据显示驾驶员在碰撞前约四秒时关闭了FSD,这使得碰撞处于自动驾驶范围之外,仅差一点。特斯拉的支持者迅速抓住这一点,将这个故事称为FUD,是恐惧、不确定性和怀疑的缩写,一个经常在特斯拉社区中用来驳斥批评性报道的术语。

视频实际显示了什么

仔细观看行车记录仪画面讲述了一个更复杂的故事。Cybertruck似乎在高速公路上沿直线行驶,没有突然的车道变换,没有不规则的运动,在撞击前的几秒钟内没有明显的驾驶员输入。随后车辆向障碍物漂移,几乎没有明显的制动或规避操作。

批评人士辩称,即使日志确认驾驶员在撞击前四秒钟技术上关闭了FSD,这种表述也偏离了重点。一个在较长时间内一直放任不管、精神上脱离的驾驶员——依赖系统来管理车辆——无法期望在四秒钟内完全恢复态势感知并做出恰当反应。这种现象被称为自动化过度自信或自动化惊奇效应,在航空和汽车安全研究中有充分的记录。

核心关切不是FSD在撞击时刻在技术上是否处于活跃状态。而是FSD的设计——以及特斯拉营销该系统的方式——是否造成了驾驶员在系统失效或脱离时无法准备好干预的条件。

过度自信问题

特斯拉的FSD系统已记录了数十亿英里,并在结构化道路上展示了真实的能力。它处理高速公路车道变换、导航十字路口并以越来越高的可靠性响应交通信号。但该系统的局限性仍然是真实的:它可能在异常路面几何形状、意外障碍物、施工区域和超出其训练分布的边界情况上遇到困难。

批评人士指出的更深层问题不是碰撞本身——而是围绕FSD的信息传达。特斯拉的营销语言一直在推向监管机构和安全研究人员认为负责任框架的上限。"Full Self-Driving"这个术语暗示了一个自动程度,而独立评估将其定位为更接近2级自动化,这意味着驾驶员必须始终保持警惕并准备随时干预。

当驾驶员遇到一个被称为Full Self-Driving的系统,它能正确处理大多数情况时,过度自信就成为了一个可预测的结果。美国高速公路安全保险协会的研究发现,使用2级系统的驾驶员比没有此类系统的驾驶员更多地参与次要任务——看手机、调整音乐、放松注意力。

特斯拉的立场

特斯拉坚持认为其日志提供了所发生事件的客观记录,任何FSD在撞击前脱离的碰撞都不能归咎于该系统。该公司还指出,FSD的现实世界安全记录(按系统激活时每英里行驶的碰撞次数衡量)与仅人工驾驶统计数据相比表现良好——这一声称得到了特斯拉自身内部数据的支持,尽管独立验证仍然有限。

美国国家公路交通安全管理局对特斯拉的FSD系统进行了公开调查,并要求提供许多事件的数据。该调查完成时的结果将比特斯拉的日志或病毒式视频片段更有分量。

更广泛的利益

休斯顿碰撞发生在自动驾驶技术的关键时刻。Waymo等竞争对手已在多个城市部署了完全无人驾驶车辆,运行时没有任何人类备用驾驶员。前Uber CEO Travis Kalanick本周表示,Waymo在robotaxi竞争中显然领先特斯拉,特斯拉需要在其纯视觉方法上取得重大突破才能赶上。

与此同时,像休斯顿Cybertruck碰撞这样的视频起到了高知名度提醒的作用,即先进驾驶辅助系统承诺的内容与其可靠交付的内容之间的差距仍然是重要的——有时甚至是危险的。关于驾驶员应该对被明确命名为Full Self-Driving的系统信任多少的根本问题,是法院、监管机构和行业本身尚未完全解决的问题。

本文基于Electrek的报道。阅读原文

Originally published on