车企们真是拼了!提车作业:为了让AEB刹得住,车企们真是拼了!

最近,有关AEB靠不靠谱的话题突然变得热闹了起来,包括媒体、供应商、车企大佬等,不少人都加入其中,给出了自己的观点和看法。

作为一项主动安全系统,AEB为什么会突然引起这么大的关注?AEB对于提升驾驶安全,又究竟靠不靠谱呢?这次我们不妨仔细研究一下。

AEB是什么?

AEB也叫主动刹车,就是在检测到车辆有碰撞风险的情况下,帮助驾驶员主动刹车,从而避免事故发生,或者降低事故损失。

AEB为什么不靠谱?

大家之所以觉得AEB不靠谱,是因为它有时候不灵敏,有时候又太灵敏。

比如前几年发生在美国的一起追尾事故,一台特斯拉在AEB完全没有介入的情况下,直接撞上了一台侧翻在马路上的大货车。

比如前方明明没有障碍物,AEB却莫名其妙地介入,导致车辆制动甚至刹停,引发不必要的事故,成为大家常说的“幽灵刹车”。

问题出在哪儿?

为什么AEB有时会表现得如此不靠谱呢?在我看来,主要问题出在了两方面:

第一,AEB没有识别出障碍物的形状、位置、类型,导致没有介入。

第二,AEB的运算能力有限,导致它处理不了太复杂、应急的任务。

作为一项主动安全配置,不靠谱的AEB显然是没法让大家接受的,那么AEB究竟能不能变得靠谱起来呢?车企又是怎么做的呢?

让AEB看得更清更远

AEB主要通过摄像头来识别障碍物。早期AEB使用的多是单目摄像头,只能输出2D平面图像,像素和焦距也有限,并且稍有遮挡污损,就不能工作了。

对比之下,如今多数AEB使用的双目摄像头,就可以像人眼一样模拟立体视觉,且即使一个摄像头被遮挡污损,理论上也还能工作。

而三目摄像头系统则更进一步,能提供长焦、中焦、广角多种视角,让AEB拥有更广、更远的视野。

除了摄像头,AEB也搭配毫米波雷达,但它的分辨率很低,很难识别体积小的物体,并且对金属很敏感,很容易误触发AEB,引发幽灵刹车。

这导致车企不得不降低毫米波雷达的敏感度,但对静态障碍物的识别能力也随之降低,于是为了保证安全,车企又为AEB增加了激光雷达。

对比毫米波雷达,激光雷达的点云精度达到了毫米级,并且发射的是不受无线电信号干扰的光信号,完美弥补了毫米波雷达的不足。

目前,包括小鹏、蔚来、理想在内的诸多新势力,都使用了摄像头+毫米波雷达+激光雷达的融合感知方案,虽然成本更高,但确实更安全。

让AEB认识更多障碍物

AEB主要通过感知算法来处理感知数据,并由此识别障碍物是什么,而以往AEB的主流算法,都是人工规则+卷积神经网络结构。

这种算法的缺点,就是“能力有限”,好比一个小学生,只会加减乘除这样的基础数学,再复杂一点的函数不仅不会做,也很难学会。

而随着深度神经网络的兴起,Transformer大模型被引入,不仅运算能力更强,还有“自学成才”的能力,只要不停提供数据就行。

这就相当于一个高中生,不仅能计算更复杂的函数了,还可以凭借更丰富扎实的基础和自制力不断自学,学习效率也更有保证。

虽然Transformer给了AEB持续学习的能力,但障碍物的种类之多,是永远不可能全部学会的,于是特斯拉率先引入了Occupancy Network占据网络。

这种架构可以直接跳过对障碍物的特征识别,用类似搭积木&拼乐高的方式,把真实的3D世界用无数小的立方体占据网格进行表达。

换句话说,在占据网络的世界下,AEB不用纠结障碍物是什么了,只要有障碍物挡在它前面,就可以直接进行下一步,判断是否需要介入。

比如华为ADS 2.0就搞了个BEV Former+Occupancy互补的“GOD网络”,阿维塔11在其加持下,把AEB的激活车速从行业内最高的60km/h,提升到了80km/h。

让AEB的运算能力更强

算力就是AEB的大脑。在传统油车时代,AEB的大脑是一个相对独立的ECU,其算力非常有限,做不了太复杂的运算。

而在智能化时代后,汽车的电子电气架构从之前的分布式升级为域控制式,算力平台也从ECU集成到了拥有更高算力的智能驾驶域控制器。

比如小鹏G9,它的智驾域算力系统就是两颗英伟达Orin,总算力超过了500Tops,这为其智能驾驶和主动安全性能提供了相当高的保障。

总结

虽然过去的AEB不太靠谱,但随着智能驾驶的升级,AEB的安全性能也在逐渐提升。

不过即使如此,安全的主体永远是人,AEB永远只能提供“辅助安全”,想要完全依赖AEB是不现实的。

免责声明:

本文内容由互联网用户自发贡献自行上传,版权归原作者所有,本站不拥有所有权,也不承担相关法律责任。如果您发现本站中有涉嫌抄袭的内容,欢迎发送邮件至:zacvip@qq.com 进行举报,并提供相关证据,一经查实,本站将在第一时间内删除涉嫌侵权内容.

热门文章