您现在的位置是: 首页 > 新车上市 新车上市

特斯拉自动驾驶故障率_特斯拉自动驾驶事故原因分析

tamoadmin 2024-07-07 人已围观

简介1.model 3自动驾驶撞了比亚迪,特斯拉称司机违规驾驶,你怎么看?2.特斯拉自动驾驶为何事故频发?3.特斯拉失控是由于什么原因造成的?4.特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?6月16日,一辆特斯拉Model?3发生交通事故,车主表示“肇事者”正是自动驾驶系统。据悉,这名来自江西的车主驾驶Model?3行驶在市区某处时,自动驾驶系统突然介入,并将车速提升至127公里每小时,同时刹车

1.model 3自动驾驶撞了比亚迪,特斯拉称司机违规驾驶,你怎么看?

2.特斯拉自动驾驶为何事故频发?

3.特斯拉失控是由于什么原因造成的?

4.特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?

特斯拉自动驾驶故障率_特斯拉自动驾驶事故原因分析

6月16日,一辆特斯拉Model?3发生交通事故,车主表示“肇事者”正是自动驾驶系统。据悉,这名来自江西的车主驾驶Model?3行驶在市区某处时,自动驾驶系统突然介入,并将车速提升至127公里每小时,同时刹车系统消失。车主在高速状态下行驶8公里后,冲出路边装上草垛然后翻滚,不久后车辆起火。

此前特斯拉已有过被投诉的车辆失速的历史,今年一月美国国家道路安全管理局接到一份请愿书,要求对50万辆特斯拉车型召回,并引用125辆车的127份投诉,其中就有失速的投诉。但特斯拉对此断然否认,声称这是做空者的手段,表示自己的车没有问题。

特斯拉的自动驾驶系统此前有过事故经历,不过是因为特斯拉Autopilot技术使用的摄像头在面对白色物体时产生误判导致的,而因为软件问题导致的失速虽然此前也有零星案例,但因没有严重事故而未被广泛关注。

特斯拉回应事故时称发生失速和刹车失灵的概率太低,需进一步调查。目前大多数采用自动驾驶技术的产品,设计上都有着刹车优先的权限。一旦人为介入,便是最高等级,系统不得争夺控制权。因此该事故的原因需等待调查结果。2018年有位奔驰E车主曾声称自己的车在高速上刹车失灵,经鉴定部门调研后,判定概率极低,仅存在理论上可能。

无论如何,越来越多的电子系统开始安装在汽车上,马斯克声称汽车已经是一个电子系统。这的确给汽车安全带来了很大的不确定性,论可靠和稳定性,电子系统无法和机械硬件相比,但它的速度和效率也是有目共睹的,如时下流行的48V电气系统,电子涡轮,电控泄压阀,电控多片离合器等等,换句话说,享受着电子系统的便捷和效率,我们在某种程度上就接受它的突然“短路”。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

model 3自动驾驶撞了比亚迪,特斯拉称司机违规驾驶,你怎么看?

你没看错,这次还是特斯拉的自动驾驶。因为自动驾驶事故,特斯拉最近频上头条。

近日,一位特斯拉Model?3车主在网络论坛上发文维权,该车主称,其驾驶开启AutoPilot完全自动驾驶功能的Model?3在深圳南坪正常行驶时,右前方行驶的渣土车突然并道而来,而他的Model?3在自动驾驶系统的控制下,非但没有停下来,反而加速冲了上去。

从车主公布的信息来看,当时Model?3正在与前面的渣土车跟车行驶,这时右方并过来一辆**的渣土车,但Model?3没有自行减速和调整方向的操作。同时,Model?3前方的渣土车开始加速行驶,处于跟车状态的Model?3也开始猛地加速,然后就撞上了正在并线的渣土车。

针对公布内容,车主还承诺均为亲身经历,如果存在与事实不符的情况,愿意承担相应的法律责任。

另外,据车主透露,爱车是在2019年8月购买,购车的同时购买了号称“具备完全自动驾驶能力”的FSD。购车以来,也经常使用FSD,按照以往的经验,这种情况下,特斯拉会自动减速或往旁边变更方向。但这次,特斯拉没有像往常一样做出正确的反应,车主想强行干预时,已经撞上了渣土车。

事后,车主要求特斯拉解释,自动驾驶未能识别到大型渣土车并且加速冲撞的原因,但是特斯拉工作人员表示“FSD硬件和数据分析是没有异常”。

对此,也有自称业内人士的网友解释道,卡车处于特斯拉盲区,没被检测到是正常现象。同时当时车辆处于自动跟车状态,前车加速后,Model?3也自动加速,因此出现了突然冲撞渣土车。并判定特斯拉的FSD无责任。

显然,这种结论站不住脚,特斯拉FSD存在视觉盲区本身就是硬件缺陷,但在宣传的时候不提醒车主缺陷隐患。就当前阶段,还是提醒大家不要过度依赖自动驾驶,只能作为一种驾驶的辅助手段。毕竟自动驾驶技术还未成熟,开车在路上,生命是自己的!

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉自动驾驶为何事故频发?

日前,网上曝出一起特斯拉自动驾驶车祸事件。车主称自己的Model?3在自动驾驶状态下,未能识别前方并线的卡车,没有制动或避让,而是直接撞了上去。

据了解,特斯拉Model?3?FSD(完全自动驾驶)为选装功能。目前售价为6.4万RMB,而事故车主是在该功能涨价之前花5.6万元购买的。

对此,特斯拉官方表示:“根据后台调取的数据,在事故发生时车主的双手处于脱离方向盘的状态,并且没有检测到制动信号。”换言之,该事故系车主违规操作所致。官方还表示,事故发生后特斯拉曾积极地与该车主进行过多次耐心沟通,但车主提出的诉求远远超出合理范围,无法达成一致。

根据车主自述,他的Model?3?FSD功能此前曾发生多次出现刹车失灵的情况,“后来在路上用FSD自动驾驶的时候,遇到了几次幽灵刹车,前方什么障碍物都没有,突然踩了一下刹车,这个也还有其他车主都遇到过,我低速遇到过好几次,高速遇到过一次”。并晒出了其在特斯拉车主群的聊天记录。

(事故车主在特斯拉车主群的聊天记录)

据了解,特斯拉方向盘采用的是扭矩传感器,即便在自动驾驶开启状态,司机双手也不能离开方向盘,否则会出现不可预知的情况。此外,一个值得注意的细节是,司机双手握在方向盘上时还必须存在能被车辆感知的重力感应,如果车辆没有感知到就会自动默认司机的手不在方向盘上。

特斯拉认为,无论是出于法规要求还是安全考虑,即使开启了自动驾驶系统,车主也要时刻专注于驾驶,保持对车辆的控制权。自动驾驶技术还没有达到完美的阶段,对车辆驾驶负主要责任的依旧是驾驶员。

值得注意的是,这是特斯拉近一个月以来第二次自动驾驶功能发生事故。今年6月18日,江西南昌特斯拉Model?3车主陈先生,在公路上行驶,突然该车自动提速至127km/h。陈先生称,尝试刹车无效后,车辆撞上了土堆翻车起火。

特斯拉近期提供给当地交管调查部门的结论显示:事发前到事故发生,只有加速踏板踩下的信号,没有刹车踏板被踩下的信号,现场没有发现刹车痕迹。

特斯拉表示,特斯拉的刹车与通常的汽车设计概念和原则一样,特斯拉的刹车系统都是有层层冗余设计的,即使电子制动系统出现故障,当刹车踏板被踩下时,纯液压的制动功能依然可以实现。

即便在特斯拉的大本营美国市场,它也深受自动驾驶事故困扰,美国国家公路交通安全管理局(NHTSA)在今年?1?月公布收到?127?起意外加速事故投诉,涵盖了?123?辆不同款式特斯拉,包括?Model?S,Model?X和?Model3,共造成110?起事故,导致?52?人受伤。

而特斯拉对所有的案例通过鉴定给出的结论都是车主操作不当,把油门当作刹车,将油门踏板一直压到?100%?所致。但这个回复显然不能让消费者满意。

时间再往前推,据公共数据库tesladeaths.com汇编的数据显示,2013-2020年涉及特斯拉汽车的致死交通事故当中,有10宗事故中驾驶者是开启了Autopilot辅助驾驶系统,而最终证实Autopilot系统为事故主因的就有4宗。说明特斯拉的自动驾驶系统安全隐患一直存在。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉失控是由于什么原因造成的?

近日,一起处于自动驾驶状态的特斯拉Model X撞击护栏致驾驶员死亡的事故再次将自动驾驶技术推到了风口浪尖。一下子又再次“引爆”了人们对自动驾驶技术的质疑。

这些年来,特斯拉在全球范围内累计卖出约28.7万辆车,但已知的因自动驾驶致死的事故已经达到了5起。首例就发生在中国河北邯郸,此事当时在国内引起极大轰动,事故中死亡车主的老父亲两年多来一直在通过法律途径为儿子讨公道,直到前一段时间特斯拉才勉强承认了事故是由自动驾驶系统引起的。

除特斯拉外,其余还处于测试阶段的自动驾驶技术也常常发生事故,就在今年早些时候一辆Uber自动驾驶测试汽车才酿成了全球首例自动驾驶致行人死亡的事件。

光是2018年前三个月,有据可查的因自动驾驶导致的车祸事故就已经达到4起,其不靠谱程度之高,已经完全对不起“自动”二字了。

其实从理论上讲,按照目前的客观技术条件,实现“靠谱”的自动驾驶是完全可以实现的,但为何当下的自动驾驶技术却总是事故频发呢?最近美国专家给出了一个解释,答案让人大跌眼镜。

经过对多起特斯拉汽车自动驾驶事故的分析,这位名叫吉姆麦克弗森的美国驾驶安全专家发现,事故发生时都有一个共同点,就是当天的阳光很强烈。在实际测试后,吉姆分析强烈的阳光会对自动驾驶系统的探测摄像头造成影响,导致摄像头成像模糊、失真甚至完全是一片白,因此自动驾驶系统会无法识别出前方路况和障碍,从而导致事故的发生。

仔细一想确实如此,用过全景影像的人都知道,光线对汽车摄像头的影响非常大,尤其是清晨和傍晚太阳角度较低时,阳光直射到汽车某个角度的摄像头上,全景影像系统中那个角度的成像就会是一片白光。

别说汽车上的摄像头了,就算是目前智能化程度和紧密程度最高的手机摄像头甚至单反相机,在面对阳光直射时也很难保证成像的还原度。

美国专家给出的这个答案,看起来非常的简单且另类,但很有可能会成为人类解决自动驾驶技术缺陷的新思路。

特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?

特斯拉,来自美国的汽车名企,以汽车自动驾驶的智能技术而闻名。在进入中国市场后,以其自动驾驶的智能技术,以流畅优美的外形,赢得消费者的喜爱,在中国汽车市场上,有着较高的地位。但在四川南充市发生特斯拉失控造成的伤人事件,将特斯拉公司推上了新闻热搜,这也让以人工智能、自动驾驶作为主要卖点的特斯拉公司,成为了网红。

这起事故的经过是,驾驶员在四川南充市的一个闹市区,因突然加速车辆失控,造成二死六伤的惨剧,并导致周边车辆不同程度的受损。事发后,特斯拉公司第一时间做出回应,根据事故车辆的数据分析,特斯拉没有任何安全故障,这造成了众多网友对特斯拉公司的质疑。而在此次事故前,特斯拉在全国各地已发生多起类似事故,这让特斯拉公司倍感压力。那么又是什么原因造成特斯拉的失控呢?

一.特斯拉的汽车自动驾驶技术不成熟。

全国各地发生的多起特斯拉,因车辆失控造成的交通事故,已充分说明,特斯拉公司在汽车自动驾驶技术上的不成熟。如果只是因为四川南充的这起事故,那可能只是个个例存在,但多起事故原因都是因为车辆失控引起的,那就说明,特斯拉的自动驾驶技术是普遍存在的现象,这也从侧面验证了,特斯拉汽车自动驾驶技术的不成熟。

二.汽车自动驾驶技术存在安全隐患。

全国各地发生的多起特斯拉失控事故,也说明了目前的汽车自动驾驶技术存在着较大的安全隐患。

三.目前没有国际标准来衡量是汽车自动驾驶技术。

汽车自动驾驶技术,目前还处于初始阶段,也没有一个国际性的组织,来制定相关标准,所以关于自动驾驶技术的认定,也是一个较大的困扰。

从特斯拉的这些交通事故来看,汽车自动驾驶技术,还需要很长的路要走。

特斯拉又发生了一次事故!

据国外媒体报道,几天前,美国底特律的一辆白色Y型轿车在T型路口撞上一辆大型卡车。 Y型车的前部很低,直接进入卡车底部,车辆严重受损。

事故发生在当地时间上午3:20左右。事发时,一男一女在车上受重伤,被送往当地医院救治。卡车司机没有受伤。

发生四起事故,两人死亡,两人受伤。为什么特斯拉总是撞上一辆白色卡车?

特斯拉最近在底特律撞上一辆白色卡车

在2016年和2019年,特斯拉在美国发生了两次致命事故。在打开L2级自动驾驶系统的同时,车辆在垂直方向撞到一辆大型卡车,最终导致车辆上人员丧生。

2020年,台湾的Model 3也撞上了一辆以高速翻转的卡车。

在2019年的特斯拉事故车中,驾驶员不幸死亡

发生四起事故,两人死亡,两人受伤。特斯拉为什么总是撞上一辆白色卡车?

2020年事故现场监控画面

这三起事故具有高度相似性。因此,在特斯拉发生另一起类似的事故后,它也引起了极大的关注,与此同时,它继续引发了一个令人深思的问题:

为什么L2自动驾驶系统被称为最强大的量产汽车,却无法避免白色卡车?

答案不是特斯拉的技术不强,也不是特斯拉的白色卡车或“天敌”。

这是因为在当前以“相机+毫米波雷达”为主要传感器的L2自动驾驶方案中,检测静态车辆是一个世界性的问题。每个系统对于固定式车辆来说都是令人头疼的问题。

例如,今年2月,一台蔚来ES8打开L2自动驾驶系统进行巡航时,撞到了行人和静止的五菱宏光。 (请参阅商品《蔚来ES8开L2撞人又撞车,为啥装24个传感器都躲不开?》)

1.尚未确认特斯拉是否已打开L2

如前一篇文章所述,该事故引起了一些中外媒体关注的根本原因在于,特斯拉的车型经历了严重事故,导致L2撞上卡车并杀死了驾驶员。

但是,从当前的外国媒体报道和Twitter上知情网民的新闻来看,事故发生时尚无法确认车辆是否开启了L2自动驾驶系统。

事故现场

因此,此事故的原因与特斯拉的L2自动驾驶系统无关。

当然,就责任分工而言,即使是2016年和2019年发生的两次致命卡车撞车事故也是驾驶员的问题。

2016年类似的事故现场因为特斯拉的AutoPilot系统属于L2级自动驾驶,所以其中一个仅在有限的场景下工作,而另一个则是监视路况并准备接管。

例如,当在垂直方向上有一辆大卡车时,这是一个不在系统中工作的场景,驾驶员需要及时接管车辆。

去年3月23日,美国国家运输安全委员会(NTSB)发布了有关两个Tesla AutoPilot L2自动驾驶系统的最终报告。报告显示,在这两次事故中,驾驶员过度依赖Titla L2级自动驾驶,从而出现了意外现象,最终导致了事故。

特斯拉有2伤2伤,总是撞上白色卡车吗?

NTSB在其网站上发布了最终调查报告

NTSB认为,卡车司机在十字路口不设停车位,而是直接驶入高速公路,属于危险的驾驶行为。特斯拉Model 3驾驶员过分依赖Testla L2自动驾驶技术,导致无法集中注意力。 NTSB最终确定了事故原因,原因是特斯拉AutoPilot L2自动驾驶系统在驾驶员下车时没有及时提醒,并且设计条件不一致,最终导致了撞车事故。

其中,事故是2019年3月1日MODEL 3撞上卡车导致驾驶员死亡的事故。

即使没有L2,Nasla的AEB自动紧急制动系统为什么会出现故障?

特斯拉的自动包围曝光系统可以手动关闭,因此,如果驾驶员关闭自动包围曝光,那么该系统自然将无法正常工作。

二,事故可能性分析传感器的配置

从美国监管机构的报告中可以看出,卡车的垂直碰撞显然超出了特斯拉L2系统的工作范围,加上驾驶员未能及时接手。

因此,问题是,为什么自动驾驶仪系统(被公认为“量产汽车中功能最强大的L2”)不能避开一辆大型卡车?

这与车东关于威来ES8事故的先前报告的结论是一致的:事故的根本原因是“摄像头+毫米波雷达”的传感器配置,很难识别静止的车辆或行驶缓慢的车辆。

与Model 3一样,Tesla Model Y配备有8个摄像头,1个大陆毫米波雷达和12个超声波雷达。

特斯拉传感器配置

当打开L2级自动驾驶系统(自动驾驶仪,NOA或EAP系统)时,车辆主要依靠前视摄像头和毫米波雷达来检测前方的物体。

尽管特斯拉目前有3个摄像头,但它不使用立体视觉。这三个相机主要具有不同的焦距和不同的视场。因此,总的来说,特斯拉与大多数当前的L2自动驾驶系统相同,都是视觉+毫米波雷达传感器解决方案。

无论是使用基于规则的视觉算法还是深度学习技术,在感知外部物体时视觉都永远不可能100%准确,甚至经常会出错。

例如,当作者自己的特斯拉走出地下室时,他会莫名其妙地将隔离墙识别为公共汽车。另一个例子是最近流行的Douyin视频,其中特斯拉莫名其妙地识别了空墓地中的行人。

特斯拉在无人墓地认出行人

另外,还存在将公交车上的人的照片识别为行人并将路侧广告屏幕上的停车标志识别为真实停车标志的情况。

依靠反射的毫米波来检测目标的雷达不会被“听到”,如果前方有东西,就会有回声,如果什么都没有,就不会有回声。

正是由于视觉错误的可能性较高,雷达才更加“可靠”,因此大多数L2系统将在视觉的基础上引入毫米波雷达的检测结果以进行验证。

如果摄像头检测到前方车辆,并且雷达也确认了前方车辆的位置和速度,则可以执行制动操作。

如果将这些错误识别的结果用于做出驾驶决策,则显然会出现更多问题。特斯拉很自然地知道这一点,因此在实践中他不会对纯粹的视觉感知结果做出反应。

因此,这起事故的原因非常清楚。不管视觉上是否能识别前方的车辆,毫米波雷达都不能给出结果,因此最终系统没有响应。

第三,毫米波雷达天生就有缺陷,害怕固定式车辆

毫米波雷达不是“闻所未闻”的,那么为什么它不能识别前方的卡车呢?

东南大学毫米波国家重点实验室的毫米波雷达技术专家,毫米波雷达公司的Falcon Eye Technology的首席技术官张辉反复分析了背后的原因。

从工作原理的底部开始,毫米波雷达主要依靠多普勒效应来感知运动目标。多普勒效应的特征在于,动力学是最容易感知到的动力学,动力学更难以感知到静力学,而静力学则极其难以感知到静力学。

这是因为如果前面的车辆是静止的,则目标信息容易与地面杂波混合,并且需要某种算法来将目标与目标区分开。如果它是一辆正在行驶的汽车,则根据其多普勒信息,最好检测目标。

因此,如果卡车静止不动或行驶缓慢,则雷达算法无法知道前方有物体。

但是这种可能性并不大,因为主要的雷达公司已经制定了一些可以识别静态物体的感知算法。

真正的困难是当前的雷达没有海拔信息,空间分辨率也不足。

没有高度信息,这意味着雷达很难区分横穿道路的路标和桥下的汽车。空间分辨率不足意味着两个非常接近的物体的回波将混合在一起,并且很难知道有多少个目标。因此,在雷达公司和一些汽车公司获得雷达反射数据之后,它们将通过算法直接过滤掉一些静止的物体或怀疑是静止的物体,以避免错误的反应。

例如,在这种事故情况下,由于卡车沿模型Y的垂直方向行驶,如果同时行驶速度非常慢,则由于缺少径向多普勒分量,雷达识别算法可以轻松对其进行过滤列为静态目标。

如果毫米波雷达能够滤除目标,则无论是否可以看见卡车都无法正常工作。

结论:汽车公司仍在优化L2自动驾驶

回到这次事故,尚未确定特斯拉是否开启自动驾驶系统,事故原因仍需当地警察和特斯拉官员调查。实际上,即使打开了L2级自动驾驶仪系统,白色卡车的场景还是有些极端。对于当前量产的L2自动驾驶系统,仍然存在许多无法处理的情况。

鉴于L2级自动驾驶系统中存在的各种问题,汽车公司也给出了自己的解决方案。一方面,通过“阴影模式”和道路测试等方法对自动驾驶算法进行了持续优化,从而使自动驾驶系统继续趋于成熟,同时不断提高了L2自动驾驶的功能。另一方面,随着硬件成本的下降,许多型号都计划搭载Lidar以避免类似事故的发生。

文章标签: # 特斯拉 # 自动 # 驾驶