最近,有关AEB靠不靠谱的话题突然变得热闹了起来,包括媒体、供应商、车企大佬等,不少人都加入其中,给出了自己的观点和看法。
AEB是什么?
AEB也叫主动刹车,就是在检测到车辆有碰撞风险的情况下,帮助驾驶员主动刹车,从而避免事故发生,或者降低事故损失。
AEB为什么不靠谱?
大家之所以觉得AEB不靠谱,是因为它有时候不灵敏,有时候又太灵敏。
比如前几年发生在美国的一起追尾事故,一台特斯拉在AEB完全没有介入的情况下,直接撞上了一台侧翻在马路上的大货车。
问题出在哪儿?
为什么AEB有时会表现得如此不靠谱呢?在我看来,主要问题出在了两方面:
第一,AEB没有识别出障碍物的形状、位置、类型,导致没有介入。
第二,AEB的运算能力有限,导致它处理不了太复杂、应急的任务。
让AEB看得更清更远
AEB主要通过摄像头来识别障碍物。早期AEB使用的多是单目摄像头,只能输出2D平面图像,像素和焦距也有限,并且稍有遮挡污损,就不能工作了。
对比之下,如今多数AEB使用的双目摄像头,就可以像人眼一样模拟立体视觉,且即使一个摄像头被遮挡污损,理论上也还能工作。
除了摄像头,AEB也搭配毫米波雷达,但它的分辨率很低,很难识别体积小的物体,并且对金属很敏感,很容易误触发AEB,引发幽灵刹车。
这导致车企不得不降低毫米波雷达的敏感度,但对静态障碍物的识别能力也随之降低,于是为了保证安全,车企又为AEB增加了激光雷达。
目前,包括小鹏、蔚来、理想在内的诸多新势力,都使用了摄像头+毫米波雷达+激光雷达的融合感知方案,虽然成本更高,但确实更安全。
让AEB认识更多障碍物
AEB主要通过感知算法来处理感知数据,并由此识别障碍物是什么,而以往AEB的主流算法,都是人工规则+卷积神经网络结构。
这种算法的缺点,就是“能力有限”,好比一个小学生,只会加减乘除这样的基础数学,再复杂一点的函数不仅不会做,也很难学会。
这就相当于一个高中生,不仅能计算更复杂的函数了,还可以凭借更丰富扎实的基础和自制力不断自学,学习效率也更有保证。
这种架构可以直接跳过对障碍物的特征识别,用类似搭积木&拼乐高的方式,把真实的3D世界用无数小的立方体占据网格进行表达。
比如华为ADS 2.0就搞了个BEV Former+Occupancy互补的“GOD网络”,阿维塔11在其加持下,把AEB的激活车速从行业内最高的60km/h,提升到了80km/h。
让AEB的运算能力更强
算力就是AEB的大脑。在传统油车时代,AEB的大脑是一个相对独立的ECU,其算力非常有限,做不了太复杂的运算。
而在智能化时代后,汽车的电子电气架构从之前的分布式升级为域控制式,算力平台也从ECU集成到了拥有更高算力的智能驾驶域控制器。
总结
虽然过去的AEB不太靠谱,但随着智能驾驶的升级,AEB的安全性能也在逐渐提升。
不过即使如此,安全的主体永远是人,AEB永远只能提供“辅助安全”,想要完全依赖AEB是不现实的。