在残酷的价格战面前,车企还是忍不住将降本的大刀挥向了高阶智驾方案。目前来看,智驾系统的降本目前主要有两条方案。

其一,搭载激光雷达,选择中等算力平台,理想汽车即将在其25年改款Pro车型上搭载的智驾方案采用了这条路线;

其二,取消激光雷达,选择大算力平台,代表是头部智驾车企小鹏的双Orin X视觉方案。

我给这两种路线都点赞,然后探讨一下大算力视觉方案。

理不辩不明。

前段时间,华为和比亚迪上演了火星撞地球的戏码,双方阵营就什么才是高阶智驾的判断条件展开了一场大论战。

经过数轮激辩之后,最终划出的高阶智驾及格线是,站在2025年上半年这个时间节点,只有能够实现城区NOA功能的智驾才能叫高阶智驾。

也就是说,按照这个判断条件,比亚迪天神之眼产品矩阵中的天神之眼C、吉利千里浩瀚产品系列中的H1和H3,都没有摸到符合当前语境下的高阶智驾的门槛。


不偏不倚地站在技术的角度来看,这个判断条件比较理性、中立、客观,也能反映过去一两年中自动驾驶技术突飞猛进的事实。

华为自家中等算力的纯视觉方案ADS SE无法实现城区NOA,其宣传口径为HUAWEI ADS基础版,只有其大算力的激光雷达方案ADS才被宣传为高阶版。


这种判断条件与智驾系统等级的门槛是否必须要由行业引领者决定无关,事实上,同样作为本土头部智驾车企的小鹏汽车和理想汽车也选择了这样的划分方式。

在理想汽车的宣传口径中,其高阶智驾车型指的是搭载激光雷达、采用双Orin X的Max车型和Ultra车型。

在小鹏汽车既往的宣传口径中,其高阶智驾车型指的是搭载激光雷达、使用了两颗Orin X的Max车型。

去年下半年转向视觉路线之后,其图灵AI智驾体系中多了一个使用双Orin X的AI鹰眼视觉方案。


小鹏的AI鹰眼视觉方案之所以可以被视为高阶智驾,是因为其算力足够大,算法足够强,可以应对复杂天气、夜间驾驶和复杂城区场景,功能上限是全场景NOA,而非高速和城快NOA。

换句话说,随着算法效率的进步,当有一天中等算力视觉方案能够实现城区NOA时,它们也可以理直气壮地坐上高阶智驾的牌桌。

至于现在,一句话也不要多说,多说一句就输了!



小镇做题家申公豹说,人们内心的成见就是一座大山。

在自动驾驶领域,由于历史上技术比较落后的原因,人们对摄像头也充满了很深的成见。

暗光环境感知能力差,强光条件下容易睁眼瞎,隧道逆光条件和雨雾场景下的局限性比较大,这些曾经的缺点就像抹不去的标签一样,结结实实地印在摄像头的身上。


不过,这个世界上唯一不变的就是变化。

虽然在过去几年的时间里,激光雷达厂商们曾经为了强调激光雷达的先进性对摄像头在各种光照条件下的缺陷进行了推波助澜式的宣传。

但是,随着技术的进步,这种宣传口径有可能会在未来一两年的时间里来个180度的大反转。


因为,摄像头在恶劣光照条件下的表现已经有了大幅度的进步,比如小鹏P7+上面搭载的摄像头,号称比人眼清楚十倍,无惧暗光、逆光和夜视场景。

虽然宣传上多多少少有些夸张,但是,天上云追月,地下风吹柳,和几年前相比,摄像头技术的确有了飞速的进步。


拆解一下摄像头的结构,可以很自然地得出一个结论:光学镜头、图像传感器、图像信号处理器、模组封装技术的升级都能帮助提升视觉能力。

拿图像传感器CIS来说,其HDR高动态转换增益可以帮助应对暗光、强光、逆光表现。

比如它可以采用高转换增益应对夜晚的低照度,切换低转换增益应对白天的强光照,利用多帧合成技术和转换增益的调整应对存在暗光到强光切换的隧道场景。


几年前,车载CIS的HDR只有100dB。

现在,国内头部CIS厂商豪威科技已经将HDR提高到了140dB, 全球头部CIS厂商安森美更是将HDR做到了150dB。

从100dB到140dB,意味着CIS捕捉亮度的动态范围扩展了100倍,摄像头对极端明暗场景的适应性得到了大幅度的增强。

所以,能不能不要再抱着摄像头强光、弱光表现差的成见了?



乔布斯老爷子说Follow your heart,忽略外界的杂音,遵从你内心的声音。

特斯拉自动驾驶主管说,FSD之所以取消毫米波雷达不是因为马斯克太抠,而是因为毫米波雷达的噪声太多了。

噪声无处不在,摄像头在雨雾场景下也会引入大量与目标感知无关的噪声。


在摄像头的信号处理链路中,图像信号处理ISP能很好地改善摄像头在这些高噪声场景下的表现。

在24年7月举行的第二届蔚来科技日上,李斌曾经对比过采用了更先进ISP的神玑NX9031和英伟达Orin X这两颗芯片在雨雾场景下的成像表现。


除了ISP,还能通过多模态滤波技术和深度学习AI模型的软硬件协同优化过滤噪声。

在范伟和赵本山的小品《心病》里,范伟说我不想知道我是怎么来的,只想知道我是怎么没的。


小品果然是用来搞笑的,而不是用来讲道理的。真要讲道理,我们得先知道这些场景下的噪声是怎么来的,才能准确理解ISP、多模态滤波和AI模型是怎么把噪声搞没的。

雨雾场景下,雨滴或雾气颗粒散射光线,会降低有效入射光强度,此时需要增加信号转换的增益,信号转换器来者不拒,除了会放大有效的光信号,也会同步放大读出电路中的热噪声和放大器本身的噪声。

此外,雨滴或雾气颗粒的直径较大时,会在成像过程中直接成为物理噪声源,表现为图像中的随机噪点。


多模态滤波技术中的多模态是指引入近红外波段和红外波段,可以利用近红外线和红外线穿透雾气和雨滴的特性,通过特殊设计的透雾镜头和滤光片增强有效光信号,减少散射干扰。

AI模型方面,可以通过深度学习,直接从原始数据中学习雨雾颗粒噪声的分布特征,并通过合成噪声的注入提升模型的泛化性,使之可以区分有效的光信号和噪声,增强有效信号区域的增益同时抑制背景噪声。


就这么多管齐下,摄像头在雨雾场景下的表现就大幅度改善了。

在图像传感、图像信号处理、深度学习神经网络的进步下,视觉方案越来越成熟了。

至少在L2++级自动驾驶的语境下,激光雷达可以被拿掉了,至于L3和L4,只能走一步看一步了,谁敢下断言,谁就可能被飞速进步的技术打脸呢!

ad1 webp
ad2 webp
ad1 webp
ad2 webp