智驾的“达摩克利斯之剑”终究还是落下了。

近日,安徽铜陵德上高速一场致命事故让公众和媒体关注的一切焦点都指向了智能驾驶。之后,有网友途经安徽高速时发现警示牌改成了“高速路况复杂,勿用智能辅助驾驶”。

智驾技术的迅猛发展,正在改变人们的出行方式。2024年,中国乘用车L2级及以上自动驾驶的渗透率达55.7%,中国电动汽车百人会副理事长兼秘书长张永伟预计这一数字到2025年可能会接近65%。

然而,当智能汽车驶入千家万户,技术的“乌托邦”承诺却在现实中一次次被击碎,也给被热炒的全民智驾浇了一盆冷水。



全球智驾第一命案

很多人或许早已经忘了,距离全球智驾第一次命案发生,已经过去了足足9年。

2016年5月7日,在美国佛罗里达州,40岁的Joshua Brown在驾驶特斯拉Model S时启用了Autopilot系统,但在阳光直射下,Autopilot未能识别到一辆横穿马路的白色大货车,导致车辆以约117公里/小时的速度撞上了卡车,低矮的车身直接钻到卡车挂车底部,Joshua Brown不幸身亡‌。



这是美国首例涉及汽车智能驾驶功能的交通死亡事故,也是全球智驾第一命案。美国国家公路交通安全管理局(NHTSA)的调查报告显示,发生撞击时,车辆的Autopilot自动驾驶系统正处于开启状态,由于受到强烈光照干扰,系统未能正确识别出白色车身的卡车,误将卡车判定为路标,刹车功能没有及时启动,车主也没有采取刹车、转向或其他动作避免撞车,从而导致事故发生。这次事件促使特斯拉对Autopilot系统进行了改进,并加强了相关功能的测试和验证‌。

而国内,由智驾引发的安全风险也不在少数。今年2月,浙江温州车主曾发文称,在高速上使用智驾时,系统未识别路障桶撞上施工车险些侧翻。3月20日,高速交警高密大队接到报警称,驾驶员驾车行驶至青银高速青岛方向84公里处发生事故。经调查,该车驾驶员开启了车辆的智驾功能,而车辆智能驾驶功能对于锥桶的识别能力较弱,同时该驾驶员分心驾驶,疏于观察路面,致使该车辆行驶至该施工路段时撞上施工单位的锥桶。

中国电动汽车百人会副秘书长师建华表示,2024年L2级辅助驾驶渗透率超过了55%,NOA渗透率达到11%,消费者对汽车智能化的需求不仅是“有没有”,而转向了“好不好用”的阶段。从未来看,端到端的智能驾驶(城市NOA)也会加速普及,预计今年渗透率将达到20%。

智能驾驶的萌芽可以追溯到1920年代,但商业化始于特斯拉,其于2014年推出了Autopilot系统,这是首款量产车搭载的L2级智能驾驶系统。

智驾系统首先是通过多种传感器实时收集周围环境信息,一般包括激光雷达、毫米级光波雷达、可见光摄像机、加速度传感器等,以获取车辆周围的图像、声音、深度和距离等信息。



基于环境感知结果,智驾系统运用高级算法进行路径规划,并在不同情境下做出决策,这些决策包括但不限于避障、遵守交通规则、变换车道、停车或加速等,并最终转化为具体的车辆动作指令,通过电子控制系统,发送给汽车的动力系统、制动系统、转向系统等,从而完成智能驾驶辅助。

辅助驾驶商业化至今时间并不长,虽然它正成为很重要的竞争力,但不可否认的是,其智能化程度距离人们的期望还有较大差距,效率与安全的天平仍难平衡,这也是全球各国政策对辅助驾驶仍持保守态度的重要原因。

智能驾驶的灰区和死角

当智驾技术被车企赋予“完美”的光环,人们往往会忽略技术的本质仍然只是操作工具。目前,智驾技术存在的主要局限包括算法局限、感知局限以及人机交互的响应时差等问题‌。这些局限导致了智驾系统在复杂场景下的表现不如预期,甚至可能引发安全事故。

首先,算法缺陷‌是智驾系统面临的一个重要问题。当前大多数智驾系统仍处于L2-L3级别的辅助驾驶阶段,主要依赖高精地图和固定规则进行决策,对于临时施工、极端天气等动态场景的处理能力有限。

此次交通事故正是由于施工修缮,自车道用路障封闭,车辆需改道至逆向车道,由于在施工改道场景下未能识别逆向车道的水泥隔离墩‌,导致碰撞事故‌。这类非常规路况的“长尾”场景正是当前L2级智驾的短板。

其次,‌感知局限‌也是一个显著问题。智驾系统主要依赖摄像头和雷达进行感知,但在复杂环境下可能无法准确识别障碍物。

目前,智驾环境感知的主要手段是纯视觉算法或视觉+激光雷达。

纯视觉算法将摄像头作为主要硬件设备,相对激光雷达而言成本低廉,这使得搭载纯视觉算法的智能驾驶方案在大规模应用时更具成本效益。视觉系统能够捕捉到丰富的纹理、颜色等信息,对于识别交通标志、车道线、行人面部表情和车辆外观等具有天然的优势,可以为自动驾驶车辆提供大量的语义信息。

但是,纯视觉算法受环境影响较大,在特定天气条件下,如暴雨、浓雾、大雪、强光直射、反光等,图像质量会严重下降,导致识别精度降低甚至失效,以及在出隧道、地下车库等光线剧烈变化的场景下需要复杂的光学号处理,影响对道路和周围物体的识别。

有数据显示,智驾系统在雨雾天气的障碍物识别准确率下降42%,AEB(自动紧急制动)响应距离缩短37%。



深度感知能力有限和对遮挡敏感也是纯视觉的短板。当物体被部分遮挡时,纯视觉算法可能无法准确识别整个物体,从而影响对场景的理解和判断。

激光雷达是一种用于精确获得三维位置信息的传感器,通过发射和接收激光束,获 取空间的位置点信息(即点云),并根据这些信息进行三维建模,可以确定目标的位置、 大小、外部轮廓等。

它与其它传感器互为补充,可以很好地弥补纯视觉方案下的缺点,直接获取三维信息,同时纯视觉方案仍具有瓶颈,且需要大量数据积累和处理,以及强大的算力算法支持,激光雷达则可以大幅提升车辆对于周围环境感知的准确度,降低高等级智能驾驶对算法的要求,是智能驾驶融合感知方案不可缺少的一环。

不过,常规激光雷达在侧向感知方面仍然存在不足。以常规激光雷达水平视场角为120°计算,相邻车道车辆超车切入在车头超过3.5m时才能探测到,极易发生剐蹭。

其次,激光雷达对低矮物的探测感知不足,由于主激光雷达垂直视场角的限制,存在着前向3m~7m的视觉盲区,对于侧面矮小障碍物和移动物体,智驾系统无法感知。此外,激光雷达对道路周边静态物识别不足,在车道线模糊的路段,容易规划出波动较大的轨迹线,影响驾驶体验。

此次事故中的车型采用双目纯视觉智驾方案,目前业界主流的双目视觉智驾方案最大可探测距离约在200米左右,显著低于三目摄像头视觉方案(约300米-350米)或激光雷达(约250米-500米)的有效探测距离,这也导致事故中从智驾报警提示驾驶员接管到车辆仅有短短2秒。

异形障碍物识别缺陷也是智驾的一大挑战。对于临时路障、水马、消防栓等非标准物体的识别,智驾系统容易存在盲区。纯视觉方案依赖图像语义分割,对不规则物体的特征提取存在误差;而多传感器融合则可能因数据时空对齐问题导致误判。

‌人机交互的响应时差‌也是一个重要问题。德国全德汽车俱乐部的测试结果表明,驾驶员平均需2.3 秒才能完成有效接管,高速公路场景下这一时间甚至延长至2.6秒。不同驾驶人员情况也不相同,部分驾驶员可能因疲劳、分心或注意力不集中而导致接管延迟。

清华大学车辆学院教授李升波也指出,驾驶员从“感知异常”到“完成转向+制动”的平均反应时间为2.6秒,而当前主流L2级自动驾驶在突发场景下留给用户的接管时间仅有1.5秒-2秒。

现在有针对L3级自动驾驶的TTC(碰撞时间,计算车辆与前方障碍物发生碰撞所需的时间)国际标准,要求智驾系统从发出预警到驾驶员成功接管应有10秒的TTC时间。但对于L2+辅助驾驶没有强制性要求。

不过,要在高速场景实现10秒的TTC时间相当困难,这意味着智驾系统需要提前10秒就检测到障碍物并告知驾驶人,十分考验车企的感知能力。假如时速达到100km/h以上,智驾系统要提前300到400米识别到障碍物才能满足要求,目前只有高线束激光雷达能实现300米以上的探测距离,普通乘用车一般不会搭载。

同时,田丰指出,目前大多数车企的智驾系统都未能达标——以120km/小时的时速计算,仅依赖毫米波雷达的系统从识别到刹停的理论极限时间仅6秒,存在4秒的安全缺口。

从智能驾驶主要的两种技术路线看,一些技术缺陷目前仍然难以有效根除。

一种是“规则派”。汽车的感知、决策、执行都依赖人类工程师预先编写好的规则,这些规则存在于一行行代码中,代码数量会多达数十万行。

这个流派的主要缺陷有两种。一是会面临无穷无尽的“长尾问题”。在现实环境中开车,会面对各种各样的场景,就算模型中预设好了99.9%的规则,剩下的0.1%罕见场景还是无法合理应对,导致智驾仍有大量潜在风险。

二是代码错误。人类工程师编写代码难免出错,在几十万行的代码中不可能没有错误代码,你不知道那些隐藏着的错误代码什么时候会“爆雷”,引发车辆失控等严重后果。

另一个流派是Transformer。在过去5年中,Transformer深度学习构架彻底改变了人工智能。Transformer开启了生成式AI新时代,现在那些备受推崇的AI模型和产品——聊天机器人ChatGPT、图像生成工具Midjourney、视频生成工具Sora等等,都是基于Transformer构建的。

在智能驾驶领域,视觉Transformer也公认是最有前途的研究方向,特斯拉2021年发布的FSD应用了Transformer架构,国内很多厂商也随后加入这一赛道。

Transformer看上去前途无量,但也远谈不上完美。它效率更高,扩展性和通用性更好,但训练模型需要消耗巨量的算力,特斯拉拥有的算力已经是其它车企的数倍,但这远远不够,成为智能驾驶一道难以逾越的门槛。

另一个障碍是“黑盒问题”。基于Transformer的模型都是“黑盒”,它们的内部运作过于复杂和不透明,人类无法准确理解它们的行为方式。这也就意味着,如果模型偶尔输出了一个异常结果,人类也束手无策。

“黑盒问题”可能会让ChatGPT说出一句不着四六的话,也可能让Midjourney输出一张古怪的图像,你可以对这个结果付之一笑。但如果汽车智驾系统突然出现幽灵刹车、意外加速、错误转向,谁能笑得出来?

Transformer也许能把汽车自动驾驶带上金光大道,也许它也只是个过渡性技术,一切尚未明了。

这些现实技术缺陷折射出当前智驾落地的共性风险——系统和算法在99%常规场景表现稳定,却在1%的边缘场景突然失效,而这1%的系统误判或功能失效可能导致100%的风险。

技术神话的祛魅与反思

为了强化智能驾驶的科技感,很多车企抛弃了国际标准中的级别宣传,故意模糊或混淆了“智能驾驶”“自动驾驶”“辅助驾驶”的概念边界,另辟蹊径找到了诸如NOA(导航辅助驾驶)、NOP(领航辅助)、NGP(自动导航驾驶)、NCA(城市智能驾驶)等花样繁多的智驾系统名称。

更有甚者,不少车企为了彰显自家品牌产品应对复杂路况的能力,创造了“车位到车位”“L2.999/L2++”等技术卖点营销词语,并刻意营造出“全程零接管”“解放双手”等假象,以塑造品牌在智驾技术上的领先形象。

事实上,这类宣传本质上是在规避智驾级别的严格定义。包括特斯拉FSD在内的诸多系统命名,实际上既不符合国际惯例,也不符合行业标准,本质上都是车企的市场营销手段。

根据国际汽车工程师协会(SAE)的自动驾驶分级标准,L2级属于“人机共驾、驾驶员全程主导”。也就是说,L2级系统借助全速自适应巡航、车道保持、自动泊车等功能辅助驾驶,但驾驶员需全程监控路况,双手不能长时间离开方向盘,属于部分自动驾驶。

而L3级是“系统主导,驾驶员有限脱离”。在特定环境(如封闭的高速公路)下,L3级系统可完全接管驾驶任务,不过一旦系统发出接管请求,驾驶员必须立即响应。可见,L3级自动驾驶并非完全自动驾驶,而是“有条件的自动驾驶”,它与L2级的核心差异体现在驾驶任务的主导权上。

值得注意的是,在自动驾驶各级别中,L3正是车辆驾驶权变更的关键分水岭。根据工信部《汽车驾驶自动化分级》,L3级仅允许在特定场景下由系统接管,驾驶员仍需随时准备接管。北京等地通过立法明确,未配备驾驶员或安全员的L4级车辆,事故责任由车辆管理者承担,但L3级仍以驾驶员为主责。



从人类驾驶到智能驾驶是一个渐进的过程,而我们现在正处于这个过渡期。这种过渡期的特殊性,导致了严重的认知错位——技术尚未成熟,消费者却误以为已经实现;个别企业的突破,被误解为行业的普遍水平。此次事故正是这种认知混乱的典型写照。

对于智驾技术,各家车企只重点强调它的正面功能,而不谈其边界在哪里,以及在什么场景下不推荐使用智驾。比如这次事故,纯视觉方案加上时间在半夜,还是高速上,这种情况下不太适合使用智驾,如果要用的话就要一直盯着前方,双手也不能离开方向盘。但是对于普通消费者来讲,可能并不知道这些使用细则。

值得注意的是,德上高速的道路修缮改道,并非突发状况。倘若能将这类路侧信息传递给车辆,让车辆提前了解前方路况,而非等到传感器探知后在紧迫环境下才做出反应,那么这类悲剧或可避免。

对于如何优化接管时间,当前智驾对于障碍物的响应速度一方面取决于更好的硬件(如更高清的摄像头、更好的激光雷达)以及算法迭代,例如占用网络等技术使用,从而提升对异形障碍物识别能力。

另一方面,探索物理AI、感知大模型、多传感器融合等技术的综合应用,以及有效的路侧信息发送机制意义重大。通过将路侧摄像头、车载雷达、激光雷达等多种传感器的数据进行整合,并对交通环境动态数据进行实时分析,从而提供更全面、更精准的交通环境感知,有助于车辆根据当前交通态势做出合理决策。同时,通过把路障位置、作业改道等信息上传至云端平台,并推送至车辆,实现车辆、路侧与云端的三端联动,可以大幅降低交通事故发生概率 。

过去9年间,随着智驾技术越来越先进,不仅能够适应更多路况,也能够展现出更类似于真人的驾驶能力。但我们要清楚的是,智驾系统只是看到了庞杂交通体系中的“局部真相”,难以覆盖所有长尾场景,不时也会发生误判、失效等风险。作为一个理性驾驶者,应该懂得如何把握技术便利性与安全性之间的尺度。

这场悲剧让人想起《流浪地球》里的一句台词:“没有人类的文明毫无意义”。如今,再回看王传福的那句:“安全是电动车最大的豪华,智驾是安全出行最强的守护”,或许有了更多的意味。汽车的根本属性是交通工具,把乘客安全送达目的地是终极目标。当安全这个“1”荡然无存,后面再智能的系统也将变得毫无价值。

真正的智能驾驶革命,不在于参数竞赛与资本游戏,而在于对生命的敬畏,唯有将生命权置于技术叙事之上,智驾才能真正从营销噱头进化为社会福祉。否则,每一次事故,都在击穿公众对智驾的信任底线,最终将演变成压垮行业的最后一根稻草。

ad1 webp
ad2 webp
ad1 webp
ad2 webp