奥斯汀的校车事件已成为对自动驾驶学习能力主张的一次检验

Waymo 长期宣传自动驾驶的核心承诺之一:一支自动驾驶车队能够从集体经验中学习,在每一次边缘案例或失误之后不断改进。但德克萨斯州奥斯汀市发生的一系列事件,正在挑战这一承诺在现实中的理解方式。

根据基于公开记录和联邦调查的报道,Waymo 车辆在奥斯汀连续数月都难以在校车红灯闪烁、停车臂伸出时停下。奥斯汀独立学区官员指称,这些车辆至少在 19 起案例中,在学生接送过程中违法且危险地驶过校车。

问题严重到 Waymo 在 12 月初发布了联邦召回,召回与提交给美国国家公路交通安全管理局的至少 12 起事件有关。公司告知监管机构,已经开发出旨在解决这一行为的软件改动。然而,问题并未立即消失。

即使召回之后,事故据称仍在继续

报道引用的记录显示,奥斯汀学区官员与 Waymo 的应对已超出常规排障范围。12 月中旬,学区在一个停车场组织了一场半天的数据采集活动,集中调来校车和停车臂设备,以便 Waymo 收集车辆在闪烁警示系统附近行为的更多信息。

这种协作表明,双方都将这一问题视为既可技术解决又十分紧迫。校车运行受到严格安全制度约束,因为儿童可能会不可预测地穿越街道,因此对停车信号的遵守没有商量余地。在这一情境下反复失灵的无驾驶系统,不只是“不够完美”,而是在法律和公共安全底线之下运行。

这一事件尤其值得注意之处在于,据称即便在召回和这次定向数据采集之后,事件仍在继续。到 1 月中旬,学区又报告了至少 4 起校车被超越事件。学区警察部门的一名官员鲜明地指出:人类违法者往往在收到一次罚单后就会吸取教训,但自动驾驶系统似乎并没有通过软件更新或召回措施以同样方式“学习”。

更深层的问题是,“学习”究竟意味着什么

自动驾驶公司经常把车队层面的学习描述为相较人类驾驶员的一项关键优势。这个概念很有吸引力:一辆车的错误理论上可以成为整支车队的教训。但奥斯汀的经历表明,这一过程可能比营销话术所暗示的更慢、更局限,或者更脆弱。

现实交通充满了各种少见的信号组合、环境条件、光照变化、地方设备差异以及行为预期。校车是一个尤其敏感的例子,因为它同时涉及法律信号、特殊的车辆外形以及高风险路边场景。自动驾驶系统可能不仅需要更多案例,还需要合适类型的案例、正确的标注,以及足够稳健的模型更新,才能让问题在整个车队中得到实质性解决。

理论上的学习与运营中的适应之间的这种差距,如今正处于奥斯汀案例的核心。如果一家公司已经识别出问题、发布了召回、收集了专门的本地数据,但仍持续出现事故,监管机构和公众很可能会追问,自动驾驶的学习主张应如何衡量与审计。

这为何超出奥斯汀本地意义

奥斯汀这些事件发生在自动驾驶行业颇为微妙的时刻。Robotaxi 开发商正在扩张业务,并在政治层面主张其系统最终能够在安全性上超过人类。但这些论断依赖的不是平均表现,而是对罕见且后果严重场景的处理能力。

校车合规正是这样的场景之一。它对公众而言清晰易懂、受到严格监管,并且因为涉及儿童而具有强烈情感共鸣。因此,反复失误对信任的伤害尤其大。即便这类案例在总行驶里程中只占很小一部分,它们在公众对 readiness 的判断中仍具有不成比例的分量。

这一事件还表明,从软件修复到现实世界问题解决的路径,可能并不像外界想象的那么即时。机器学习系统并不是以人类那种随口可说的方式“学习”。它们依赖工程流水线、验证工作、仿真、部署计划和安全门槛。这意味着,拥有数据与实现改进并不是一回事。

对 Waymo 而言,奥斯汀问题不仅仅是一个本地运营故障。它是在检验自动驾驶关于可规模化学习这一核心叙事,是否能在公开场合持续出现边缘案例失败时经受审视。对监管机构而言,这也是一个提醒:召回措辞和学习主张可能需要比通常的软件更新承诺更严格的审查。

更广泛的自动驾驶市场都在密切关注。如果自动驾驶系统想赢得持久的公众信任,它们就不仅要证明自己在错误发生后能够收集数据,还要证明自己能把这些数据转化为及时、可验证的行为改变,且发生在安全最重要的地方。

本文基于 Wired 的报道。阅读原文