作者 | 张祥威


(相关资料图)

编辑 | 德新

智驾方案的降本行动仍在推进。

早年,单视觉l2市场的玩家以mobileye、博世为主,后来国内智驾公司加入,共同推动 1v、1r1v、nr1v等不同的方案兴起,l2近乎成为车辆的必备功能。

当下,在行业降低智驾成本的大背景下,有行业公司提出,可以推出成本极致下探的单视觉l2方案,并能解决行业的两大痛点:

降低aeb误报率,帮助车企拿到cncap五星成绩;

支持数据回传,为高阶智驾迭代打下基础。

与以往的l2方案相比,今天的单视觉l2正在变强,且有了更高的可靠性,成为主机厂向高阶辅助驾驶进军的入场券。

一、单视觉成本香但有痛点,行业关注aeb误触发率

2017年,随着特斯拉model 3开启规模交付,l2逐渐进入公众视野。

国 内市场中,先后出现1r1v、3r1v、5r1v的l2方案,后来还出现了加入激光雷达的l2 方案。再后来,随着主机厂降本、便于管理的需求,又出现了行泊一体等。

对性能的极致压榨,其中一个代表是特斯拉。其采用144tops的算力坚持使用120万像素的摄像头,来实现l2、l2 的功能更新,并且一直在做传感器的减法,比如去掉毫米波雷达等。

国内主机厂在极致成本竞争下,也已经开始做减法,行业开始出现去高精地图、去雷达等声音。

回到l2方案上,过去行业的主流做法是通过1r1v方案来实现l2功能,比如aeb等。

为了降 低成本,行业后来又开始去掉毫米波雷达,出现1v方案。不过,去掉毫米波雷达后,仅依靠单个摄像头容易发生“幽灵刹车”,就是aeb误触发率高的问题。

要解决传统的1v方案幽灵刹车的问题,需要大量的数据,但是又不能拿量产车主机厂当小白鼠。主机厂希望降低成本,又担心去掉毫米波雷达产生的幽灵刹车。这是过去行业推进「1v」这种极简l2方案时遇到的问题。

为解决aeb的误触发,maxieye做了多种算法冗余,通过两套甚至更多套不同的算法来进行目标物的检测,不同算法的检测特征、原理是完全不同的,并可以相互校验。

比如,对行人的检测,一套算法会检测行人的整体轮廓,另一套算法会检测行人的关节、头等局部特征。

5月24日,智驾科技maxieye发布了 牧童monotogo 单视觉l2贵宾网的解决方案,水平视角 100°,探测距离 200m,面向5-15万主流车型,一站式实现l2全功能集成,具备数据闭环全场景复现、事件触发数据回传等功能。

面向当下单v行业痛点,该方案针对性解决了aeb误触发等问题,满足 cncap五星 主动安全评分

极简的l2方案再次被刷新。

据悉,这款单视觉l2方案的vision only产品在cncap标准测试中,主动安全adas部分更是得到了 88.56%的分数。

要获得cncap主动安全五星,需要系统具备很高的敏感性,同时保证量产时aeb不会出现误触发,考验方案的平衡能力。许多主机厂为了让量产的车减少误触,会把系统调整得很保守,从而无法获得cn cap的五星高分。

值得一提的是,maxieye单v产品刷新系统安全指标,这背后有一套数据迭代的逻辑。

随着量产上车的方案不断积累更多数据,maxieye会不断地训练这套视觉方案,精度、性能、场景随之提升,从而在主动安全上获得更好的分值。

二、从产品底层设计,建立数据回传机制

获得主动安全五星成绩,仅仅是maxieye的单视觉l2方案能力的一部分。更为重要的是,maxieye的l2方案所具备的 数据回传能力

“ 单视觉方案最怕的是一些ghost(鬼影)。”maxieye创始人兼ceo周圣砚告诉hiev,因为视觉无法形成深度信息,经过龙门架时,会把龙门架当成大卡车的车尾,进隧道时,也可能把隧道的杆子当成车尾,而要解决鬼影问题,就需要大量的数据积累。

为了做好数据积累,早在2019年左右,maxieye发布1r1v方案时,就为这套方案设计了支持数据回传和事件触发视频回传的机制。这是当时行业的其他方案没有考量的。

maxieye在1r1v方案中运行了单v的影子系统,利用影子系统,可以把由于 缺少毫米波雷达校验所产生的aeb误触发数据全部回传回来,用于之后的数据训练和算法迭代。

据介绍,在1r1v和单v方案市场,maxieye是 唯一一家具备数据回传能力的公司

为了开发这样一套系统,maxieye在选择芯片时,就要求芯片 必须支持h.264视频编码。“视频编码直接决定了方案的后续能力,比如影子系统、数据回传,以及通过回传来训练深度学习的卷积网络。”

彼时,一款芯片既要有足够的算力去部署深度学习算法,同时又支持h.264编码,这样的芯片产品并不多,它考验的是芯片公司的ip设计和产品定义能力。

据了解,许多智驾方案供应商早期推出的芯片并不具备h.264视频编码能力,数据回传主要靠大量的人工成本,在方案量产之前通过大量的试验车采集各种工况数据,数据获取的成本相对较高。

除了芯片,maxieye自身也基于底层感知自研算法,实现视觉感知网络的迭代。目前已经实现高测距测速精度、高环境适应性。

受限于芯片算力,l2的算法采用的是 maxi-net 1.0深度学习网络

据周圣砚介绍,机器学习对算法检测率的提升主要来自两个途径:

一是,提升卷积网络设计,采用运算能力比较大的卷积网络;

二是,在量产的产品上,由于可用的算力不高,通常为2 - 4tops,此时想要提高检测率就要通过数据。

最终,maxieye选择了安霸和ti的芯片,并通过算法的不断迭代,获取大量量产上车的l2方案回传的数据,其场景数据规模量已经累计超2亿公里。

这种前瞻性设计,为后来解决aeb误触发、获得cncap主动安全五星成绩打下了基础。

更关键的是,它还为系统向高阶辅助驾驶迭代留出空间。

三、向高阶辅助驾驶迭代

主机厂为了提高竞争力,需要提升l2的 搭载率,并且方案最好支持向l2 、l2 等高阶功能进化。

要做到高阶辅助驾驶,要包含上下匝道、过路口等,核心是解决路口的拓扑。

maxieye的单v方案可以支持在经过十字路口时,按照设计好的触发机制,将过路口前后五秒的视频回传到云端。同时,maxieye在云端为主机厂准备了一套 vslam和地图重构的算法,将单v的视频用vslam的方式创建整个道路拓扑,作为高阶的地图真值去训练高阶辅助驾驶。

周圣砚认为,虽然单v的算力有限,运行不了bev算法,无法感知道路的分叉、汇合等拓扑信息,但行业当下l2和l2 的配置率大概会是8 : 2。可以用80%车辆l2采集的数据,为20%车辆提供城市noa道路拓扑信息。

这一过程考验的便是 数据闭环能力

它要求:

整车厂的车辆具备以太网的架构,以太网不止用于adas的数据回传,还可以用于车机等;

智驾供应商具备数据脱敏能力,要用算法把行人的脸、车牌照信息脱敏,l2方案的芯片算力本身有限,将数据脱敏算法植入进去,技术挑战颇大。

站在主机厂的角度,如果不具备数据回传能力,意味着和燃油车时代的“放养”没有任何区别。而且,由于l2的配置率很高,如果无法支持数据回传,数十万乃至近百万辆车无监管地行驶在路上,主机厂对于车辆的数据掌控力也会变弱。

具备数据回传能力后,主机厂可以联合智驾供应商一起设计触发机制,提供基于触发机制的数据回传,以还原现场。

它不仅可以提升adas本身的性能,也能拓展l2的功能边界。

比如,安全气囊起爆后,如果将起爆前后五秒进行数据回传,就可以帮助主机厂用来做起爆点的设计等等。

目前看,要进入智能驾驶领域, 单视觉l2基本上是性价比最高的入场券了

对于主机厂来说,一方面这张入场券的成本更低。另一方面,也是更为关键的,它能为进入noa等高阶自动驾驶做好准备。

单视觉l2采集的数据,可以做场景触发,将数据回传支持noa的迭代。也就是说,遇到的每个corner case,都能攒下经验值,为以后的算法迭代打下基础。

对于售价更低比如售价10万元以下的车型来说,成本更低且具备数据积累能力的智驾方案,是有着不错的吸引力的。

最终,用户感受到的是 更加安全的巡航功能,主机厂可以在主动安全方面获得cncap五星评分,并且具备了数据迭代能力。

未来某天,随着传感器本身成本下降,单视觉l2的硬件可能会被替换,但那时,主机厂已经从算法层面获取更多的海量数据,拿到了迈入高阶辅助驾驶的入场券。

推荐内容

网站地图