4月23日,第二十一届上海国际汽车工业展览会开幕,AI成为今年本届上海车展的关键词之一。车展前夕,腾讯推出座舱端侧大模型,基于混元2B(B为十亿)小参数模型;英特尔首次参加车展并与面壁智能共同研发端侧原生智能座舱;宝马则在车展期间宣布DeepSeek年内将搭载于多款在售新车。
今年年初,面壁智能CEO李大海就告诉第一财经记者,比较主要的终端设备中,汽车和手机是今年AI落地最好的场景。记者了解到,近期大模型厂商对于智能座舱AI落地的考虑更具象化了。
腾讯智慧出行副总裁钟学丹告诉记者,腾讯的端侧模型和Agent(智能体)已在跟多家车企合作,车的量产还需要一段时间。端侧模型在本地推理,可分析用户当下需求,提供驾驶行为建议、车辆操作指导等,并在遇到复杂问题时寻求云端模型支持。
具体而言,腾讯在智能座舱场景将Agent等大模型能力与社交、娱乐生态结合。“驾驶中语音指令‘点一杯大杯拿铁’,Agent就知道用户喜欢的咖啡店和咖啡种类,并调用咖啡品牌的车载微信小程序,选择最近的咖啡店,用户顺路取餐。” 腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生举例称。
值得注意的是,汽车座舱端侧模型也有能力边界。钟学丹表示,2B模型很难具备很强的推理能力,推理能力是通过云端其他模型引入。问答对话在车上本就不是一个很好的应用场景,端侧模型会更多聚焦用户行为、意图的识别和判断,而不是聚焦于问答。
大模型厂商还需要应对AI幻觉问题。钟学丹告诉记者,大模型运行的本质是预测下一个token(词元),无法做到100%精准,要减少端侧模型的幻觉问题,一方面要将行业相关数据加入模型训练,此外则是增强知识理解能力,以提升端侧模型的精准度。
此外,端侧模型落地汽车座舱,算力也需要具备足够的条件。钟学丹告诉记者,落地车端的节奏取决于两个因素,一是车端算力,二是端侧模型与应用结合的进展。即便是小参数模型,也对车端算力提出要求。2B小参数模型未经极限测试,搭载于车上不仅需要考虑算力支撑情况,也要考虑车内应用和系统资源消耗的情况,预计运行在类似高通8295这样的芯片上体验较好,在算力较低的车上还很难有较好体验。
高通8295芯片的NPU算力为30TOPS。记者了解到,考虑到本地运行需求,智能座舱、手机搭载的大模型参数量较小,多为几十亿参数。这既与芯片的算力限制有关,也与功耗相关,如果模型过大会加快电量消耗。
不仅智能座舱引入端侧模型对车端算力提出要求,一些业内人士近期也注意到,端到端模型在智能驾驶领域的推广也带来了算力消耗增加。
“业界普遍预测,模块化的端到端(模型)将在年内量产上车,而one-model(一个统一模型)端到端模型也预计在2026或2027年量产。智能驾驶从原有的规则驱动走向了数据驱动范式。”钟学丹称。汤道生称,端到端模型处理的数据量将是过去的10倍以上。
元戎启行CEO周光则将智能驾驶技术与大语言模型做类比。他表示,ChatGPT面世前的语言模型是弱专家系统,ChatGPT面世后大模型明显提升了通才能力,近期大模型则走向垂直领域,变成强专家系统,例如在数学、物理等领域达到博士水平。
“今天的智能驾驶技术还在弱专家系统阶段,下一步将进入通才阶段,通用化是走向强专家系统的必经之路。自动驾驶厂商希望达到的L5级自动驾驶,对应的是强专家系统。”周光表示,机器人和自动驾驶落后大语言模型一到两年时间,现在即将进入通才阶段,这个阶段的智能驾驶神经网络是典型的VLA(视觉语言动作模型)架构,具备思维链能力,未来对算力的要求将会增长。