智能汽车 · 2023年11月15日 0

全自动驾驶系统FSD在评测中频繁与假人模型碰撞

北京时间8月10日早间消息,最新发布的非监管评测结果显示,特斯拉的FSD自动驾驶系统在测试中多次与一个儿童尺寸的人体模型发生碰撞。这项测试由GReen Hills SoftwaRe的首席执行官、特斯拉的知名批评者丹·奥多德(Dan O’Dowd)资助并公布。

全自动驾驶系统FSD在评测中频繁与假人模型碰撞

奥多德去年发起了一个名为“黎明项目”的运动,旨在禁止他认为不安全的软件进入关键安全系统。该组织一直以来积极测试特斯拉的软件,并呼吁美国国会对特斯拉的软件进行限制。奥多德此前还曾以禁止FSD自动驾驶系统为竞选纲领,试图竞选美国参议员。

本周二,该组织发布了一段视频作为最新的宣传材料。在视频中,一辆开启FSD功能的特斯拉汽车多次撞击人体模型。

特斯拉的发言人尚未对此消息做出回应。

这段32秒的视频显示,在加州的一条测试车道上,特斯拉汽车三次撞上了人体模型。“黎明项目”的发言人表示,这项测试在过去一个月内进行了多次。在撞击人体模型之前,车辆从未尝试转向或减速至超过每小时25英里。然而,根据视频的宣誓书,这项测试仅进行了三次。

值得注意的是,这项评测并非在美国监管机构的监督下进行,因此没有统一的测试标准。

例如,美国国家公路运输安全管理局(NHTSA)和公路安全保险研究所采用至少五种不同的测试方法来评估汽车的安全性。NHTSA在2020年启动了一项自动化测试项目,通过事故报告来评估软件的表现。特斯拉过去一直未向机动车辆管理部门报告事故数据,原因在于该公司的系统被归类为L2级驾驶辅助,而并非像WayMo等竞争对手的自动驾驶系统,那些系统需要遵循不同的事故报告标准。

在“黎明项目”的每次测试中,特斯拉汽车以每小时40英里的速度起步,沿指定车道行驶100码后撞向人体模型。在测试中,专业测试司机被要求在碰撞前将手从方向盘上移开,仅在车辆与模型发生碰撞后才能刹车。

特斯拉则向司机表示,其驾驶辅助系统并不能替代人类司机,因此即使系统处于开启状态,司机仍需保持手在方向盘上,随时准备接管车辆。

测试司机阿特·海尼(Art Haynie)在声明中提到,FSD启动后,特斯拉Model 3“开始晃动,似乎很困惑,减速了一点,但仍以超过每小时25英里的速度撞上并碾压了人体模型”。

奥多德在声明中表示:“我们对特斯拉FSD的安全测试结果感到极其不安,这应该引起我们的警觉。埃隆·马斯克(Elon Musk)声称特斯拉FSD软件‘令人惊讶’,但事实并非如此。它对所有美国人构成了致命威胁。”

特斯拉的FSD功能以往也曾引发争议。上个月,加州机动车辆管理局对特斯拉提起诉讼,指控该公司在宣传驾驶辅助系统时使用了“错误或误导性”的表述。

尽管FSD的名称意指“全自动驾驶”,但实际上它只是一个选装功能包,使特斯拉汽车能够自动变道、进出高速公路、识别停车标志和红绿灯以及自动泊车。该软件目前仍在测试阶段,用户可以通过1.2万美元的选装包或每月199美元的服务订阅来购买。在使用FSD时,司机仍需时刻关注车辆的状态。目前,该软件已有超过10万名付费用户,特斯拉利用这些用户实时测试软件,同时让系统的人工智能模型向经验丰富的司机学习。