新葡萄√娱乐官网正规吗知乎

正在阅读:

都2023年了,怎么还有人乱用“自动驾驶”

扫一扫下载界面新闻APP

都2023年了,怎么还有人乱用“自动驾驶”

日常驾驶不仅是“一镜到底”,而且路况环境也充满随机性。

文|猫头鹰科技  东克平

春节返乡本是一件幸福的事,但有人因为不正确的“打开方式”险些酿成悲剧。

在长途自驾这个场景中,驾驶辅助功能得以广泛应用。然而,本是以保障行车安全为初衷的智能配置,却成为部分交通事故的诱因,不得不说这有些黑色幽默。

1月21日晚间,据微博网友@歪歪歪歪大叔发布的微博显示,其驾车行驶在高速公路最内侧车道上,在距离十米的前方,一辆白色轿车突然缓速向其车道并线,随后,两车发生碰撞,所幸双方人员并未受伤。

根据车主提供的视频来看,当时视频车已开启驾驶辅助功能,但该系统功能并未对前方车辆并线做出及时反应,等到驾驶员人工介入的时候为时已晚。@歪歪歪歪大叔大叔所驾驶的车辆还配有激光雷达,是当下驾驶辅助系统中较为昂贵的感知硬件。

从这个案例来看,驾驶辅助尚不能完全履行辅助职责,更别说是实现“自动驾驶”了。

从黑色幽默到血的教训

上述事件目前还未有权威调查结果,不过显而易见的是,驾驶员在使用驾驶辅助功能时也应当保持注意力集中,做好时刻接手驾驶甚至处理突发情况的准备。

工信部发布的《汽车驾驶自动化分级》中显示,在0级至2级自动驾驶中,监测路况并做出反应的任务都由驾驶员和系统共同完成,并需要驾驶员接管动态驾驶任务。3级为有条件自动驾驶,驾驶自动化系统在其设计运行条件内持续地执行全部动态驾驶任务,动态驾驶任务接管用户能够以适当的方式执行动态驾驶任务接管。

目前,我国市面上流通的驾驶辅助系统中还未有达到L3级别,这意味着无论是硬件感知层面如何堆砌,驾驶员仍要注意观察路面。

从法律层面上来讲也是如此。

2022年,深圳市人大常委会会议审议通过了《深圳经济特区智能网联汽车管理条例》(以下简称《条例》),并已于去年8月1日开始正式实施。

对于普遍发生的驾驶员过度信任驾驶辅助系统,从而引发交通事故,《条例》中这样认定:发生交通事故且智能网联汽车一方负有责任的,该车辆的驾驶人应当承担相应的损害赔偿责任。条例中还写到,配备驾驶人的智能网联汽车发生交通违法行为,由公安机关交通管理部门依法对驾驶人进行处罚。

显然,驾驶员是行车的第一责任人。

然而,对驾驶辅助过分信任的人仍不在少数,检索自动驾驶造成的交通事故,事件不胜枚举,其中不乏血的教训。其中更有甚者,在短视频平台发布视频炫耀。尽管媒体及网友对此类现象批评严厉,但仍屡见不鲜。

现阶段“自动驾驶”能力有限

显然,小部分消费者对现阶段驾驶辅助的能力没有完整的认知,一度以为这就是“自动驾驶”,甚至有部分车主不惜甘冒风险去极力证明。

事实上,目前的驾驶辅助在现阶段仍面临不少问题,比如,其对于静态物体识别就比较有代表性。

从多起事故中可以看出,驾驶辅助对于高速移动的车辆可以相对准确识别并作出反应,相反,对低速甚至停在路边静止的车辆却难以识别。这一现象出现在多起事故中,涉及多个品牌多个车型。

有自动驾驶业内人士透露,目前自适应巡航系统是依赖毫米波雷达和视觉传感器来进行目标物识别的,难以区分静止物体和其他干扰物。例如,前方出现事故车,感知系统难以识别出这是车辆还是标志牌。

由此产生了一个重大问题——该不该刹车?如果将标志牌当作障碍物,会频繁引发误刹车,不仅影响驾乘体验,还有安全隐患。然而,在避免误刹车的过程中,也会有障碍物“鱼目混珠”,这也导致了大部分事故的发生。

举个例子,车辆行驶中前方出现了路牌,路牌下方有一辆“抛锚”的车。毫米波雷达可以探测到前方有静止物体,但却无法精准识别为决策系统提供更多线索支持。这让决策系统在工作中有“赌”的成分。

 

当然,厂商对此也是心知肚明。

在特斯拉官网中,关于主动巡航功能的说明明确写道:主动巡航控制无法探测到全部障碍物,尤其在巡航速度于 80 km/h 的情况下,如果车辆或障碍物仅部分处于行驶车道中,或前车驶出您所在的车道后,车辆前方出现一辆静止或行驶缓慢的车辆或障碍物,则主动巡航控制可能不会实施制动/减速。务必注意前方路况,准备迅速采取修正措施。依赖主动巡航控制避免碰撞可能会造成严重人身伤害或死亡。此外,主动巡航控制可能会对不存在或不在所行驶车道上的车辆或物体做出反应,造成Model 3不必要或不当减速。

对此,猫头鹰车志认为,相比较于无法识别不能制动,“可能不会实施制动/减速”则更为致命。车主在有过成功减速的经历后,大概率会对其功能可靠性信心大增,安全隐患也就此埋下。

近两年,激光雷达开始进入公众视野,相比较于毫米波雷达,激光雷达性能更好识别精度更高,理论上可以解决这个问题。然而,开头提到的事故中,网友驾驶的车就配备有激光雷达,但激光雷达在具体使用过程当中依旧有前提条件:

 

还有个题外话,在特斯拉的产品手册中明确写道,恶劣天气会对Autopilot的性能产生影响。按照常规认知,雨、雪、雾等恶劣天气下,也会影响人眼的感知能力,再加上轮胎或存在抓地力低的情况,更容易发生交通事故。驾驶辅助的初衷是提升行车安全,结果在恶劣天气下性能要受限,挺让人搞不懂的。

是谁造成的信息不对等?

厂商知道产品的真实情况,消费者对潜在问题毫不知情,这是典型的信息不对等。

2016年,一个与未来、科技深度绑定的造车新势力进入了全球视野,特斯拉官网上一段自动驾驶视频掀起热度,特斯拉也进一步扩大了知名度。时至今日,其品牌影响力仍深入人心,并与自动驾驶、先进技术深度绑定。

然而,这段令特斯拉受益匪浅,让马斯克喜笑颜开的视频,在近期被指出作假,视频内容是依靠预设程序及剪辑实现的。

据海外媒体报道,之所以有这份爆料,是因为现任特斯拉自动驾驶软件总监Ashok Elluswamy在去年7月份收到法院传唤,Ashok Elluswamy的呈堂证供称特斯拉伪造了该系统本不具备的功能,如识别交通信号灯。

事情还未有明确结论,且马斯克本人也还在接受调查当中,但这一事件传递了一个讯号——消费者接收到的信息是不完整的。

宣传片中传达的是特斯拉Model X可以做到自动泊车,识别交通信号灯等动作,甚至是“仅仅出于法律原因,驾驶位上必须坐着一个人。他什么都不用做,这辆车就可以完成自动驾驶。”

然而按照Ashok Elluswamy的证词,特斯拉的演示是经过精心策划的。先是对路线进行了环境建模,驾驶辅助系统如同“开卷考试”,然后利用剪辑手法处理掉不合格的画面片段。这显然与真实使用场景差异极大。日常驾驶不仅是“一镜到底”,而且路况环境也充满随机性。

相似的情况不只发生在海外和特斯拉身上。

在中国,猫头鹰车志也曾走访多家国内新势力厂商门店,在以潜在客户身份向工作人员咨询驾驶辅助功能时,得到的回复含糊不清。“您觉得它是自动驾驶那它就是,我好多客户都用,没见到谁出过事故。”工作人员虽未明确给出答复,但言语中透露着些许暗示。

更有工作人员“现身说法”,强调驾驶辅助功能比自己反应速度还快,并以生产线和手工为例,“这个就像机器,不知疲倦,不像人会分神会累。”在后续试驾试乘过程中,工作人员更是“大撒把”后与后排人员交流,讲解自适应巡航、车道保持等功能。此类现象并非个案。去年,有网友在个人自媒体账号称在试乘过程中,销售人员展示讲解自适应巡航功能时,车辆追尾前车,副驾驶气囊弹出。

显而易见的是,厂商精心策划的营销素材加上终端工作人员的信誓旦旦,一般的消费者确实容易沉浸在科技的美好泡沫之中,这也使得近年来此类事件屡见不鲜。

好在如今信息传播途径发达,大部分消费者们意识到了潜在风险,在主流社交媒体平台,面对带有误导性的内容,网友们批评指责的声音占据了主流。

猫头鹰车志也在此呼吁,如果您见到此类内容,请勿模仿!自动驾驶技术诚然已经有很大进步,但是毕竟只是一个技术,在生命安全面前,作为交通参与者,我们都该为自己的人身财产安全负责。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

都2023年了,怎么还有人乱用“自动驾驶”

日常驾驶不仅是“一镜到底”,而且路况环境也充满随机性。

文|猫头鹰科技  东克平

春节返乡本是一件幸福的事,但有人因为不正确的“打开方式”险些酿成悲剧。

在长途自驾这个场景中,驾驶辅助功能得以广泛应用。然而,本是以保障行车安全为初衷的智能配置,却成为部分交通事故的诱因,不得不说这有些黑色幽默。

1月21日晚间,据微博网友@歪歪歪歪大叔发布的微博显示,其驾车行驶在高速公路最内侧车道上,在距离十米的前方,一辆白色轿车突然缓速向其车道并线,随后,两车发生碰撞,所幸双方人员并未受伤。

根据车主提供的视频来看,当时视频车已开启驾驶辅助功能,但该系统功能并未对前方车辆并线做出及时反应,等到驾驶员人工介入的时候为时已晚。@歪歪歪歪大叔大叔所驾驶的车辆还配有激光雷达,是当下驾驶辅助系统中较为昂贵的感知硬件。

从这个案例来看,驾驶辅助尚不能完全履行辅助职责,更别说是实现“自动驾驶”了。

从黑色幽默到血的教训

上述事件目前还未有权威调查结果,不过显而易见的是,驾驶员在使用驾驶辅助功能时也应当保持注意力集中,做好时刻接手驾驶甚至处理突发情况的准备。

工信部发布的《汽车驾驶自动化分级》中显示,在0级至2级自动驾驶中,监测路况并做出反应的任务都由驾驶员和系统共同完成,并需要驾驶员接管动态驾驶任务。3级为有条件自动驾驶,驾驶自动化系统在其设计运行条件内持续地执行全部动态驾驶任务,动态驾驶任务接管用户能够以适当的方式执行动态驾驶任务接管。

目前,我国市面上流通的驾驶辅助系统中还未有达到L3级别,这意味着无论是硬件感知层面如何堆砌,驾驶员仍要注意观察路面。

从法律层面上来讲也是如此。

2022年,深圳市人大常委会会议审议通过了《深圳经济特区智能网联汽车管理条例》(以下简称《条例》),并已于去年8月1日开始正式实施。

对于普遍发生的驾驶员过度信任驾驶辅助系统,从而引发交通事故,《条例》中这样认定:发生交通事故且智能网联汽车一方负有责任的,该车辆的驾驶人应当承担相应的损害赔偿责任。条例中还写到,配备驾驶人的智能网联汽车发生交通违法行为,由公安机关交通管理部门依法对驾驶人进行处罚。

显然,驾驶员是行车的第一责任人。

然而,对驾驶辅助过分信任的人仍不在少数,检索自动驾驶造成的交通事故,事件不胜枚举,其中不乏血的教训。其中更有甚者,在短视频平台发布视频炫耀。尽管媒体及网友对此类现象批评严厉,但仍屡见不鲜。

现阶段“自动驾驶”能力有限

显然,小部分消费者对现阶段驾驶辅助的能力没有完整的认知,一度以为这就是“自动驾驶”,甚至有部分车主不惜甘冒风险去极力证明。

事实上,目前的驾驶辅助在现阶段仍面临不少问题,比如,其对于静态物体识别就比较有代表性。

从多起事故中可以看出,驾驶辅助对于高速移动的车辆可以相对准确识别并作出反应,相反,对低速甚至停在路边静止的车辆却难以识别。这一现象出现在多起事故中,涉及多个品牌多个车型。

有自动驾驶业内人士透露,目前自适应巡航系统是依赖毫米波雷达和视觉传感器来进行目标物识别的,难以区分静止物体和其他干扰物。例如,前方出现事故车,感知系统难以识别出这是车辆还是标志牌。

由此产生了一个重大问题——该不该刹车?如果将标志牌当作障碍物,会频繁引发误刹车,不仅影响驾乘体验,还有安全隐患。然而,在避免误刹车的过程中,也会有障碍物“鱼目混珠”,这也导致了大部分事故的发生。

举个例子,车辆行驶中前方出现了路牌,路牌下方有一辆“抛锚”的车。毫米波雷达可以探测到前方有静止物体,但却无法精准识别为决策系统提供更多线索支持。这让决策系统在工作中有“赌”的成分。

 

当然,厂商对此也是心知肚明。

在特斯拉官网中,关于主动巡航功能的说明明确写道:主动巡航控制无法探测到全部障碍物,尤其在巡航速度于 80 km/h 的情况下,如果车辆或障碍物仅部分处于行驶车道中,或前车驶出您所在的车道后,车辆前方出现一辆静止或行驶缓慢的车辆或障碍物,则主动巡航控制可能不会实施制动/减速。务必注意前方路况,准备迅速采取修正措施。依赖主动巡航控制避免碰撞可能会造成严重人身伤害或死亡。此外,主动巡航控制可能会对不存在或不在所行驶车道上的车辆或物体做出反应,造成Model 3不必要或不当减速。

对此,猫头鹰车志认为,相比较于无法识别不能制动,“可能不会实施制动/减速”则更为致命。车主在有过成功减速的经历后,大概率会对其功能可靠性信心大增,安全隐患也就此埋下。

近两年,激光雷达开始进入公众视野,相比较于毫米波雷达,激光雷达性能更好识别精度更高,理论上可以解决这个问题。然而,开头提到的事故中,网友驾驶的车就配备有激光雷达,但激光雷达在具体使用过程当中依旧有前提条件:

 

还有个题外话,在特斯拉的产品手册中明确写道,恶劣天气会对Autopilot的性能产生影响。按照常规认知,雨、雪、雾等恶劣天气下,也会影响人眼的感知能力,再加上轮胎或存在抓地力低的情况,更容易发生交通事故。驾驶辅助的初衷是提升行车安全,结果在恶劣天气下性能要受限,挺让人搞不懂的。

是谁造成的信息不对等?

厂商知道产品的真实情况,消费者对潜在问题毫不知情,这是典型的信息不对等。

2016年,一个与未来、科技深度绑定的造车新势力进入了全球视野,特斯拉官网上一段自动驾驶视频掀起热度,特斯拉也进一步扩大了知名度。时至今日,其品牌影响力仍深入人心,并与自动驾驶、先进技术深度绑定。

然而,这段令特斯拉受益匪浅,让马斯克喜笑颜开的视频,在近期被指出作假,视频内容是依靠预设程序及剪辑实现的。

据海外媒体报道,之所以有这份爆料,是因为现任特斯拉自动驾驶软件总监Ashok Elluswamy在去年7月份收到法院传唤,Ashok Elluswamy的呈堂证供称特斯拉伪造了该系统本不具备的功能,如识别交通信号灯。

事情还未有明确结论,且马斯克本人也还在接受调查当中,但这一事件传递了一个讯号——消费者接收到的信息是不完整的。

宣传片中传达的是特斯拉Model X可以做到自动泊车,识别交通信号灯等动作,甚至是“仅仅出于法律原因,驾驶位上必须坐着一个人。他什么都不用做,这辆车就可以完成自动驾驶。”

然而按照Ashok Elluswamy的证词,特斯拉的演示是经过精心策划的。先是对路线进行了环境建模,驾驶辅助系统如同“开卷考试”,然后利用剪辑手法处理掉不合格的画面片段。这显然与真实使用场景差异极大。日常驾驶不仅是“一镜到底”,而且路况环境也充满随机性。

相似的情况不只发生在海外和特斯拉身上。

在中国,猫头鹰车志也曾走访多家国内新势力厂商门店,在以潜在客户身份向工作人员咨询驾驶辅助功能时,得到的回复含糊不清。“您觉得它是自动驾驶那它就是,我好多客户都用,没见到谁出过事故。”工作人员虽未明确给出答复,但言语中透露着些许暗示。

更有工作人员“现身说法”,强调驾驶辅助功能比自己反应速度还快,并以生产线和手工为例,“这个就像机器,不知疲倦,不像人会分神会累。”在后续试驾试乘过程中,工作人员更是“大撒把”后与后排人员交流,讲解自适应巡航、车道保持等功能。此类现象并非个案。去年,有网友在个人自媒体账号称在试乘过程中,销售人员展示讲解自适应巡航功能时,车辆追尾前车,副驾驶气囊弹出。

显而易见的是,厂商精心策划的营销素材加上终端工作人员的信誓旦旦,一般的消费者确实容易沉浸在科技的美好泡沫之中,这也使得近年来此类事件屡见不鲜。

好在如今信息传播途径发达,大部分消费者们意识到了潜在风险,在主流社交媒体平台,面对带有误导性的内容,网友们批评指责的声音占据了主流。

猫头鹰车志也在此呼吁,如果您见到此类内容,请勿模仿!自动驾驶技术诚然已经有很大进步,但是毕竟只是一个技术,在生命安全面前,作为交通参与者,我们都该为自己的人身财产安全负责。

本文为转载内容,授权事宜请联系原著作权人。