作者 |张马也
编辑 |德新
2025年伊始,如果说这年智能驾驶有什么确定性的关键词,那「端到端智驾」与「大模型上车」一定是排序最靠前的那两个。
上年末,一部分车企已经推送了基于端到端大模型架构的智驾系统,而2025年将是端到端智驾开始普及的年份。
由端到端的神经网络驱动的新一代智驾系统,它不仅仅是车端算法的竞争,也是围绕计算平台、云端训练、数据闭环全链路的竞争。作为车企发力端到端智驾的基石,高算力的智驾芯片,是其中核心的要素。
12月30日,黑芝麻智能发布新一代智能驾驶计算平台——华山A2000家族,展现了其在高阶智能驾驶领域的野心。目前,黑芝麻智能的计算平台主要分为两条线:
- 一是武当系列,以C1200家族为代表,将标准化的智能驾驶和座舱能力,融合到一个芯片中,帮助车企实现高性价比的舱驾融合,助力智驾普及;
- 二是华山系列,尤其A2000家族瞄准行业最前沿的技术,帮助车企落地最新的算法需求。
这次推出的华山A2000家族,就是黑芝麻针对新一代高阶智驾的计算需求,给出的最优解答。
它包括三款产品,针对不同级别的智驾方案需求:
- A2000 Lite,主打极致性价比,支持城市NOA解决方案;
- A2000,作为新一代旗舰级的算力平台,支持各种复杂场景通识智驾;
- A2000 Pro,进一步翻倍算力和性能,面向高阶全场景通识智驾甚至Robotaxi场景设计。
黑芝麻智能提出的全场景通识智驾概念,基于知识范式将驾驶场景的信息引入到知识增强的表示空间中,这些信息可以被推导为场景语义空间中的通用知识,随后通过知识的反映来推断场景,从而指导实现更好的智能驾驶体验。
也就是说,让AI模型具备人类的常识和知识,进而影响场景里的决策,让车开得比老司机还好。
通识智驾具备实现高级感知、决策和执行的通用能力,能够全面覆盖城市道路、高速公路、昼夜变化以及各种气候条件的不同场景。
黑芝麻智能产品副总裁丁丁对HiEV表示,A2000家族的计算效率相较当前主流旗舰芯片大幅领先 ,原生支持Transformer,整个产品组合覆盖从NOA到Robotaxi的广泛应用场景。
A2000将很快向行业客户提供开发样片,Lite和Pro也会稍晚陆续推出,预计2026年A2000将随车企的量产车上市。
尽管目前在国内车市,中阶和高阶智驾正处在爆发的前夜,但真正能支持高阶智驾落地,并且具备量产经验的智驾计算平台屈指可数。
这不仅因为前装量产,对芯片性能和稳定性有着严苛要求,更在于它需要算法、工具链等整个生态系统的持续优化和迭代。
在「端到端」开始量产的当口,黑芝麻A2000家族的推出,可以说来得「正是时候」。
一、兼具旗舰性能和超高性价比
武当C1200家族是黑芝麻智能第一款基于7nm车规工艺设计的芯片,而A2000是第二款。
黑芝麻智能副总裁丁丁告诉我们,正是基于此前的经验,A2000在7nm制程设计高算力芯片时,能做到更极致的性能,芯片性耗比和性价比也有进一步提升。
A2000集成了CPU、DSP、GPU、NPU、MCU、ISP和CV等多种计算单元,实现了高度集成化和单芯片多任务处理的能力。它使用新一代ISP技术,具备4帧曝光和150dB HDR,提升了图像处理能力,在隧道和夜间等场景下表现更好。
黑芝麻智能方面披露,A2000家族性能范围能够覆盖目前主流应用芯片的1 - 4倍。
丁丁透露,基于上述3个产品版型的域控价格,也希望通过芯片的高集成度和成本优势,能够助力客户相较原有系统有数千元级的下降。
这在今天部分车企认知高阶智驾成本偏高的背景下,具备相当不错的价格竞争力,可以说是高阶市场的「性价比王者」。
二、以扩展性和灵活性,支持最前沿算法架构
最近两年内,智驾技术突飞猛进。乐观的业者预计,一段式的端到端大模型可能在未来两年内量产上车,甚至未来五年内,完全自动驾驶的Robotaxi能开始大规模普及。
丁丁也认可当前行业技术的演进非常快,「在过去的一年,可以看到原来BEV+Transformer,并没有停留那么长时间,行业很快开始了多模态大模型以及端到端的算法的落地尝试。」
A2000的研发立项于2022年,针对智驾算法快速演进的特点,黑芝麻也在设计过程中,对A2000进行了高度灵活的架构布局,包括适应当下最新的模型结构和算子类型,同时也为未来的更新做好准备。
为A2000系列芯片提供性能底座的,是 黑芝麻智能自研的全新NPU架构「九韶」。
九韶NPU具有高算力、高能效和高带宽的特点,这是智能驾驶技术向更高阶迭代的基础。
相比于市面上部分NPU采用小核堆叠的方式设计,九韶NPU采用了大核为主的架构。通常,大核的设计相比于小核堆叠,能够执行更复杂的神经网络模型和算法,并且有更高的数据吞度量。
丁丁告诉我们,「全新设计的一代大核架构,它特点是会算得非常快,我们也加入了很多调度机制,让它在多模型、多应用的切换上,能够以高效的方式执行。」
黑芝麻智能认为,「大核会逐渐成为AI ASIC的主流。」
此外,九韶的内存架构,也为高吞吐量和低延时专门优化,包括大容量高带宽的NPU专用缓存、核心模块片内共享缓存,以及对称的双数据通路和专用DMA引擎,这样一来既提升了性能和有效带宽,降低了对外部存储带宽的依赖,在性能、带宽和成本之间极致平衡。
NPU架构不仅针对特定的算子或算法进行优化,而是更多从数据处理格式、计算方式上,对大量的卷积运算、向量运算等运算核预留了可灵活配置可编程的能力。
在大模型强相关的数据架构方面,针对不同的运算核都进行了数据流转的优化,以便在不同的运算组合下,数据吞吐都不会成为计算的瓶颈。
配合新一代大核架构的NPU设计,黑芝麻智能还推出了两项技术创新以发挥大核的优势:
- 新一代通用AI工具链BaRT;
- 新一代双芯粒互联技术BLink。
BaRT是黑芝麻全新打造的工具链,支持多种神经网络的主流框架和模型转化,并原生兼容PyTorch的推理API,支持Python编程部署,大大降低了开发者的使用门槛,帮助车企对AI算法进行快速迁移部署。
BLink技术的引入,则为未来算力扩展提供了灵活方案,支持Cache一致性互联的高效芯片间通信,能够扩展支持更大规模模型的算力需求,为算法长期演进做好准备。
丁丁说,「能够同时具备强大算力、完善工具链支持、成熟量产经验的企业将在竞争中占据优势。
在同样保证很高的性能和效率的前提下,我们会让芯片具备更好的一个扩展性和灵活性。它就会有更好更长的生命周期,客户的粘性也会更大。」
三、加速端到端量产
华山A2000,无论从架构设计,还是推出的市场节点来说,可以说是为端到端而生的。丁丁认为,多模态的大模型以及One Model的端到端模型,无疑是下一个阶段的主旋律。
为此,黑芝麻也做了两手准备:
一方面,黑芝麻与第三方算法公司紧密合作,针对端到端模型以及新一代的计算平台进行移植开发完整的智驾量产方案。这部分的工作预计明年上半年可以完成,并在实车上进行测试验证。
2026年将是华山A2000芯片全面普及的开始。
另一方面,黑芝麻智能也在开发高阶的端到端参考方案。
在A2000发布的前不久,黑芝麻智能推出支持华山及武当芯片的端到端算法参考方案,这个参考模型可以让更多客户作为基础,在已经和硬件优化适配过的模型上,调整车企自有的算法,以及进行进一步的数据训练。
该参考方案采用One Model架构,一端可输入摄像头、激光雷达、4D毫米波雷达、导航地图等信息,另一端直接输出驾驶决策所需要的信息,即本车的预期轨迹。整个方案在决策规划单元引入了VLM视觉语言大模型,和PRR行车规则的概率化表征子模块,进一步提升了智驾系统的决策规划能力。
目前,黑芝麻智能的端到端参考方案分为标准版和高阶版两个版本。前者在单颗武当C1200家族中算力平台上即可部署,而后者在华山A2000家族上运行可以发挥出全部实力。
之所以如此,是因为「智驾都开发周期越来越短,客户更期待的不是单个芯片的能力,而是尽快获得全栈的软件算法和功能的支持」。
不过从商业模式上,黑芝麻还是以服务客户为目标,有一定的灵活度,主要还是提供给客户更好用的工具,更接近产品化的参考。
今年,整个汽车行业在智能驾驶突飞猛进的同时,也经历了价格战、倒闭、整合等风波。
但丁丁表示,他对行业的未来仍旧持乐观的态度。「车的数量并没有少,并且在智驾的装配率,尤其是高阶智驾的装配率上,一定是越来越多,所以我们还是非常乐观」。
随着端到端浪潮席卷而来,华山A2000系列无疑将进一步推动黑芝麻出货量的成长,巩固其在智能驾驶计算解决方案领域的行业地位。