致命的特斯拉车祸引发了对基于视觉的自动驾驶系统的质疑
标签:
事故自动驾驶电动汽车埃隆·马斯克nhtsa特斯拉cybercab |
分类: 车展的映像 |
如果人类看不到前方的道路,目前尚不清楚特斯拉如何期望 FSD Supervised 做得更好
- 2023 年亚利桑那州发生的一起致命车祸与特斯拉的全自动驾驶软件系统有关。
- 该事件引发了人们对特斯拉纯视觉自动驾驶战略的质疑。
- 这与特斯拉的 Robotaxi 推动不谋而合,并引发了人们对自动驾驶准备的担忧。
当技术与现实世界发生冲突时,其后果很少是理论上的。2023 年底,亚利桑那州发生了一起悲惨的事故。在那一年的 40,901 起交通死亡事故中,这是独一无二的。据报道,这是唯一一起涉及行人和一辆特斯拉在全自动驾驶(有人监督)模式下行驶的事故。现在,随着特斯拉开始在奥斯汀推出 Robotaxi,它引发了对现在和未来安全性的质疑。
事故发生在当年 11 月,当时 71 岁的祖母 Johna Story 在州际公路上被拦下。她被拦下是为了帮助其他已经发生过早期事故的人。特斯拉的视频显示,导致车祸的道路被地平线上的阳光直射遮住了。
更多:道奇表示 Charger Daytona 的意外加速是一个功能,而不是一个错误
也就是说,彭博社获得的事故视频确实显示了出了问题的警告信号。虽然无法看到道路,但右侧车道上的汽车会减速。其他车辆停在右侧路肩上。一名旁观者挥手示意交通减速。
在他意识到之前,特斯拉司机卡尔·斯托克 (Karl Stock) 已经向左转向,然后又回到了公路上,然后迎面撞上了停着的丰田 4Runner 和 Story。她当场被撞身亡。“对不起,一切都发生得这么快,”斯托克在警方的证人证词中写道。“有车停在我面前,当我看到它们时,我已经无处可去避开它们了。”
值得注意的是,彭博社声称,事故发生时 FSD 正在工作。“他 [Stock] 使用了汽车制造商所谓的全自动驾驶 (FSD),”报告称。警方报告并未证实这一点。报告官员和 Stock 都没有提到 FSD、Autopilot 或任何类型的巡航控制或自动驾驶系统。也就是说,该出版物有可能获得了非公开的 NHTSA 车祸报告的访问权限,并且那里有更多数据。
视觉与激光雷达和雷达
归根结底,像这样的车祸凸显了特斯拉 FSD 最明显的担忧。基于视觉的系统与人类感知道路的方式并没有太大的不同。这意味着,当人类难以看到前方的道路时,就像地平线上明亮的阳光一样,或者在烟雾弥漫或多雾的条件下,基于视觉的系统也会遇到困难。
如前所述,目前似乎尚不清楚 FSD 究竟是什么时候参与的,什么时候没有。也就是说,即使系统及时脱离,让 Stock 避免了撞车,目前还不清楚他将如何看到即将发生的事情。事实上,这次事故和其他类似事故,尽管没有其他的死亡人数,导致 NHTSA 启动了对 FSD 的调查,该调查仍在进行中。
“一辆特斯拉汽车在进入道路能见度降低的区域后发生碰撞,并启用了 FSD -Beta 或 FSD -监视(统称为 FSD)。在这些车祸中,道路能见度降低是由于眩光、雾或空气中的灰尘等情况造成的,“调查指出。
另一方面,依赖雷达或激光雷达的系统可以“看到”雾、眩光和烟雾之外的东西。它们可以发现基于视觉的系统有时遇到的障碍。在这种情况下,配备激光雷达的系统可能会提醒 Stock 注意停止的障碍物。这并不意味着他们完美。
众所周知,Cruise 在因事故而投资数十亿美元后关闭。这些汽车都使用了雷达和激光雷达,但仍然出现故障。综上所述,为什么特斯拉及其首席执行官埃隆·马斯克 (Elon Musk) 如此坚定地使用纯视觉系统,仍然有点令人惊奇。只有时间会证明这种情况是否会改变。
房间里的机器人大象
我们迟早会知道特斯拉是否坚持其纯视觉系统。这家汽车制造商已经在测试自动驾驶出租车和无人驾驶汽车,并将于本月在德克萨斯州奥斯汀扩大测试范围。马斯克承诺,该计划将全年扩展,并且 5 级自动驾驶即将推出。
当然,多年来,特斯拉一直在不断改进 FSD。与 2023 年相比,这是一个功能强大的系统,但它仍然存在一些重大问题。就在几周前,一辆据称与 FSD 合作的特斯拉在开阔的道路上坠毁,没有障碍物,没有视觉队列或任何其他可解释的原因。我们尚未确认细节,但在视频中,这辆车确实以 55 英里/小时左右的速度驶离了道路并撞上了一棵树。如果汽车制造商希望特斯拉的 Robotaxis 成为主流,那么这两起事故是无法做到的。目前,除了等待看看会发生什么之外,没有什么可做的了。
特斯拉的看法
以下是亚利桑那州那起事件的完整 36 页车祸报告,包括警方和目击者报告以及所有内容:https://t.co/wvfvgl8ET3 pic.twitter.com/3y5DSgDzpU
— EVwire.com 的 Jaan (@TheEVuniverse) 2025 年 6 月 4 日
这家汽车制造商以缺乏公关部门而闻名 [直到它真的想把信息传出去]。也就是说,它有时确实谈到了为什么它继续在其客户中推动 Autopilot 和 FSD 的使用。
两年前,当它召回超过 100 万辆汽车时,它表示:“我们特斯拉相信,我们有道德义务继续改进我们已经一流的安全系统。与此同时,我们也认为,不向更广泛的消费者提供这些系统在道德上是站不住脚的,因为无可争议的数据表明它正在挽救生命并防止受伤。
虽然特斯拉对其收集的安全数据不透明是出了名的,但它确实声称其汽车平均比人类驾驶员更安全。由于第三方没有对这些数据的完全访问权限来验证它,因此很难简单地接受这些说法。尽管如此,如果他们是准确的,那么特斯拉是有道理的。归根结底,这个等式中没有人愿意冒生命危险。问题是,哪条路线最安全,不仅在未来,而且现在?
主要图片 Bloomberg/YouTube
标签 事故 自动驾驶电动汽车 埃隆·马斯克 NHTSA 另类新闻 雷达报告安全 特斯拉 特斯拉 Cybercab 视频

加载中…