自动驾驶出事故 L2辅助驾驶能力有限

作者:汽车网 | 内容提供:http://12364.com/|
112

自动驾驶这几年到底有多火?百度董事长李彦宏曾说,“到2030年,没有自动驾驶能力的电动汽车将完全没有竞争力。”随着汽车电动化的快速发展,自动驾驶已经成为很多汽车品牌的卖点。然而,汽车的智能化发展并没有想象中那么顺利。近年来,与自动驾驶相关的事故很多。

前不久,浙江省宁波高速上发生了一起事故。Xpeng Motors一车主在没有人工干预的情况下使用智能驾驶辅助,撞上一辆停在路边的工程车辆,造成人员伤亡。尽管车主承认自己开车分心,品牌也反复强调开启L2驾驶辅助系统仍然需要司机的注意力,但这一事件还是引起了很多讨论。

类似的事情并不少见。去年,一位蔚来车主高速撞上了同一辆静止的工程车辆。据媒体报道,特斯拉还多次在路上撞上一辆静止的汽车。

这种东西之所以能引起广泛讨论,主要是因为场景对于人类驾驶员来说非常简单,而对于“自动驾驶”来说却不是。这不禁让人疑惑:前面停着这么大这么明显的障碍物,为什么这些所谓的“智能驾驶”汽车连这些基本的场景都无法判断?

即使厂商一再声明市面上的汽车还处于L2辅助驾驶阶段,离真正的“自动驾驶”还很远。但有了几百个top的电源芯片、高清摄像头、毫米波雷达、超声波雷达等所谓“高科技”的智能电动车,它的能力边界在哪里?对于现在的“自动驾驶”技术,消费者应该有哪些期待?

毫米波雷达能力有限。

无论是特斯拉还是国内很多新势力,目前的L2驾驶辅助系统方案都是摄像头和毫米波雷达的结合。

例如,特斯拉使用1个毫米波雷达、12个超声波雷达和8个摄像头组成的感知系统;蔚来ES8配备了一个前3眼摄像头,5个毫米波雷达和12个超声波雷达。小鹏P7配备了一个高感知相机,三个毫米波雷达和两个超声波雷达。

可以看出,在国内外,目前的L2系统都是基于摄像头加毫米波雷达的传感器方案来感知周围环境。

毫米波雷达的分类

毫米波雷达的原理很简单,就是把毫米波发射出去,然后毫米波碰到障碍物就会反射回来。根据反射后收到的回波,可以得出一个时间差。有了时间差,就可以知道此时汽车与障碍物的相对距离。这就是多普勒原理。

现在L2系统几乎都用毫米波雷达,主要是因为它抗干扰能力强,受天气影响小,是一种全天候工作的传感器。

自动驾驶出事故   L2辅助驾驶能力有限        -第1张图片

看来毫米波雷达是一个非常有用的传感器。理论上可以穿透烟雾,不受天气影响。前面有障碍物,不管是静止的还是运动的,都要识别。但现实情况是,在之前的交通事故中,特斯拉遇到了大货车过马路,蔚来遇到了大型工程车,小鹏遇到了停在路边的车,都没有被认出来。毫米波雷达只是名义上的吗?

其实毫米波雷达是通过向前发射雷达波来工作的。但是目前的毫米波雷达测高能力很弱,导致毫米波雷达无法识别高度。一般情况下,雷达波在遇到前方障碍物时会反射回来,但雷达波遇到附近的桥梁、路标、路面、减速带等也会反射回来。导致真路障和假路障的混淆。特别是在远距离探测中,多径反射和高度无法识别的目标会产生大量杂波,导致系统的误判。

“特斯拉自动驾驶系统识别交通信号”

因此,当我们面前有静止物体时,即使毫米波雷达能够识别出真正的障碍物,也无法分辨出是路面、路标还是停放的汽车。因为在毫米波雷达眼里,这些都是一样的东西。如果是在高速公路上,毫米波雷达的误判会导致汽车紧急刹车。为了避免这种情况,车速达到一定值后,毫米波雷达识别静止物体的权重会变低。这时候依靠毫米波雷达作为单一传感器进行感知显然是不够的,还需要一个摄像头。

摄像头和视觉识别也会“混淆”

在智能驾驶中,使用摄像头的初衷和人眼是一样的:既然人类驾驶员可以用眼睛看到的一切来驾驶,那么汽车也可以依靠摄像头加上算法,这一点马斯克深有感触。

在智能电动汽车中,摄像头代替人眼进行测量和判断,将目标的光信号转换成图像信号,并发送给专门的图像识别处理器。根据图像的像素分布、亮度和颜色提取目标的特征,最终得到相应的识别信息。

“特斯拉Model3撞上一辆侧翻的卡车”

一般来说,相机的工作原理和人眼是一样的。首先,你应该看到你面前的物体,然后在你的脑海中搜索。你以前见过这个物体吗?如果找到匹配的,就能认出是什么。如果你没看过,那就不知道,直接无视。

比如车载摄像头看到一个锥桶,会先比对数据库里的相似物体。然后摄像头每看到一个颜色、形状、大小相似的物体,就会标记为一个锥桶。所以相机需要海量的数据训练来认识更多的物体。

对于相机来说,首先看到的是认识它。宁波的事故,从视频上看,天气晴朗,光线充足,视野开阔,摄像头应该看到了前方的车辆。但当时车尾有一个锥形桶,锥形桶前又站了一个人,所以三者重叠。按理说相机可以识别这三个静止的东西。但如果三者重叠,算法就没见过这样的物体,摄像头也没经过训练和标记,无法识别。

类似的例子还有很多。在L2驾驶辅助系统中,如果你面前有一个不规则的物体,或者一个没有标记的物体,摄像头会选择直接忽略它。

所以相机的能力可以概括为:你教过它,它就知道;没教过就不知道。

人们不愿意承认毫米波雷达不容易识别静止的物体,而相机只能识别他认识的物体,这是事实。现在的驾驶辅助系统只能应对一些简单的路况,稍微复杂一点就无能为力了。现实太复杂了。人类擅长处理复杂场景,而机器不行。

现实世界的复杂性超乎想象

虽然智能电动汽车或自动驾驶汽车在国内推广已久,但目前市场上还没有L3级别的自动驾驶汽车,号称达到L3、L4级别的也远未达到量产水平。因为对于一辆自动驾驶汽车来说,即使你能应对95%以上的路况,仍然有5%的几率发生事故。这对车辆来说是不可接受的。

现实世界的复杂在于特殊情况太多。比如高速上平时有行驶的车,突然高速上总有故障车停着。人类可以很容易地识别它们,但目前的L2系统非常困难。

“去年,易维来车主开启‘自动驾驶’功能发生事故”

我们把那些人工智能不擅长处理的5%的特例,称为拐角案例。举个例子,目前摄像头很容易识别前面行驶的车,但是如果前面的车上突然掉下一把椅子,摄像头就无能为力了。因为相机没遇到过这种情况,不知道怎么处理,只能直入了。

类似的场景还有很多,比如面对空中飞来的大气球,自动驾驶是急刹车还是直接开?我们的自动驾驶系统可以识别站着的人,但是它能识别躺在路上的人吗?

这样的边缘场景太多了,真实路况的多样性和复杂性使得现在的自动驾驶辅助系统事故频发。对于我们普通消费者来说,应该对技术的发展保持清醒的认识,因为目前量产的自动驾驶技术还远远不能让人开走,最可靠的驾驶员还是能掌握方向盘的人类。

相关文章