AI龙头科大讯飞(002230.SZ)近日发布的2024年报显示,公司全年实现营业收入233.43亿元,同比增长18.79%,时隔两年重回双位数增长。其毛利同比增长18.7%至99.5亿元,同期归母净利润为5.6亿元。
同日公布的一季报显示,公司在2025年第一季度录得营收46.58亿元,同比增长27.74%。
按照业务来看,公司核心赛道业务均表现亮眼,消费者、教育、汽车、医疗业务营业收入保持较高两位数增长,收入结构持续优化。
具体而言,开放平台及消费者业务仍为公司第一大业务板块,实现收入78.86亿元,同比增长27.58%。平台消费者业务中,开放平台、智能硬件分别实现收入51.72亿元、20.23亿元,分别同比增长31.33%、25.07%。
教育方面,智慧教育业务实现收入72.29亿元,同比增长29.94%。投资者调研记录显示,2024年前三季度,科大讯飞AI学习机销量增长超过100%。
此外,汽车、医疗、企业AI解决方案业务保持快速增长势头,分别实现收入9.89亿元、6.92亿元、6.43亿元,分别同比增长42.16%、28.18%、122.56%。
需要指出的是,2024年底,讯飞医疗(02506.HK)成功在港股分拆上市,据此前披露的年报,讯飞医疗2024年GBC三端收入分别同比增长10%、103%和57%。
回顾科大讯飞在2024年的营收与盈利数据,一个值得外界关注且思考的表现是,它在保持高速增长和较高盈利能力的同时,也在大力投入建造自己的技术壁垒。
而短期营收增长与盈利承压的矛盾,以及长期技术壁垒带来的潜力,一直是科技公司面对研发投入时需要平衡的难题,但这也决定了一家公司的长线规划能力与未来战略高度。
AI大模型是其中尤为重要的一环。
2024年,科大讯飞研发投入达45.8亿元,占营收比例为19.62%。其中,公司在大模型研发、核心技术自主可控、大模型应用落地等方面新增研发投入7.4亿元。
事实上,在行业经历2023年的百模大战之后,通用大模型的话语权已经迅速收缩至互联网大厂、头部创业公司以及一批有实力的上市公司手中。而在商业化压力以及预训练阶段Scaling Law曲线放缓等多重因素下,坚持基座模型训练已渐渐不再是所有人的必选题。
于是,是否放弃基座模型训练、继而大力转入应用层竞争,成为在场玩家的关键抉择。对科大讯飞而言,答案显而易见,公司仍要坚持技术与应用的双轮驱动。
“坚持1+N,我们有能力,国家有需求”,论及坚持基座模型训练的必要性,公司董事长刘庆峰对市场如此回应。其中“1”为底座模型,“N”则为教育、医疗、金融、汽车、能源、司法、安全、工业互联网及AI for Science等N个关键领域的行业大模型。
相比于行业中的其他竞争对手,科大讯飞对于基座模型及行业模型的投入的确更具针对性,在预训练阶段便加入了对业务协同和产业落地的考量。
据刘庆峰透露,公司在训练行业模型的时候,就考虑到了如教育、医疗、司法等相关方面的需要,所以在训练底座的时候,在基本的数据资源上就有更加高质量的清洗。
在基座模型的具体表现上,讯飞自主研发的推理模型星火X1能够以70B参数量对标OpenAI o1的效果,成为未被美国技术甩开的中国厂商之一。其技术壁垒不仅在央企、医疗等安全敏感领域形成差异化竞争力,还通过讯飞开放平台吸引了820万开发者构建生态黏性,形成自己的平台经济效应。
在行业落地表现上,讯飞的底座模型也成为其业务增长的技术根基。
在C端,讯飞AI学习机2024年收入翻番,25Q1收入接近翻番。在B端,其与各领域头部企业合作的行业大模型,中标项目数及金额均列行业第一。前述财报也显示,2024年其智慧汽车、医疗、企业AI解决方案营收分别增长42.16%、28.18%、122.56%,验证了底座模型对垂直场景的适配能力。
除了对底座模型研发投入的坚定,科大讯飞技术全栈国产化的决策也是其面向长期的独特竞争力。
4月20日,讯飞星火X1迎来全新升级,作为当前业界唯一基于全国产算力训练的深度推理大模型,它不仅是70B参数大模型中最好的深度推理模型,并且可以比肩国际顶尖模型水平(如DeepSeek-R1 671B)同级别效果。
这证明了国产算力训练的全栈自主可控大模型具备登顶业界最高水平的实力和持续创新的潜力。
“在当前基于预训练和强化学习的算法基础上,基于全国产算力,科大讯飞有能力把底座模型做到业界最好。”刘庆峰称。并且,这些基于自主研发的底座模型训练出来的行业模型,在尺寸灵活性、适配深度、最终效果上,比基于开源模型训练出来的行业模型要好。
在美对华芯片禁售背景下,科大讯飞与华为联合打造“飞星一号”国产算力平台。由于国产算力生态在软件生态上的短板,为了完成华为昇腾910B 算力的适配和优化并大幅提升训练效率(训练效率相比英伟达A100从55%提升到85%),讯飞自主研发的大模型迭代要晚于业界一流水平2-3个月,但即使在算力更小的情况下,讯飞也进入了底座大模型的第一阵营。
科大讯飞以更宏观和长期的视角看待这一有限挑战。
刘庆峰指出,在国产算力平台上建设底座大模型,对国家具有战略意义,在市场上也有独特的应用需要。“无论是像央国企,还是如安全等重要行业,对自主可控的底座大模型的需求非常迫切,而讯飞是基于国产算力训练,各方面的可靠性都更胜一筹,也更受相关客户和国家主管部门的信任。”
当然,即便如此,科大讯飞也无法回避开源模型对闭源模型形成的行业冲击。
在科大讯飞看来,开源模型促进了市场对 AI应用的热度,各行业更有紧迫感地要用大模型来推动行业发展和变革,但国产自主可控的闭源系统符合真正刚需。
一旦开源模型达不到行业模型所需要的高可靠度(如幻觉控制、安全漏洞、行业场景高准确率等),便使其难以深入规模化行业落地。因此,在国产算力自主可控性上,讯飞坚持做业界最好的闭源系统,也符合未来产业发展的刚性需要。
公司认为,在最重要的关键领域,讯飞必须在自己的闭源系统中落地,不能有幻觉,且必须达到高精度和采取高可靠度的方向;同时,公司也积极拥抱开源和第三方模型,共同为客户提供更完整更丰富的应用落地方案。
面向未来,在技术全栈国产化方面,自主可控的通用底座大模型将继续得到国家大力支持。
公司表示,在国家大力推动人工智能自主可控算力建设的战略背景下,“飞星二号”一期项目的成果已经在2025年初投产,随着国家对人工智能自主可控的支持不断到位,未来一段时间星火大模型在模型训练投入上的算力投入上不会有较大幅度增加。
在全球竞争视野中,面对国产自主可控市场需求日益迫切,讯飞在全栈自主可控上的额外付出将成为先发优势。
本次关税战之后,美国对华技术封锁极有可能持续升级,如果国外高端算力芯片对中国彻底断供,其他厂商基于英伟达算力的优势或将无法持续,而科大讯飞坚持在国产算力上进行训练,虽付出额外算力成本和时间代价,但在未来战略竞争更激烈、美国完全断供的情况下,这些付出将转化为优势。
不难推断,科大讯飞的底座模型战略本质是构建“技术-生态-商业”闭环,而国产化路线则确保其在供应链安全与政策红利中占据先机。
短期看
,科大讯飞处于“高投入换增长”阶段,盈利承压但现金流改善和营收结构优化为技术攻坚提供缓冲;
长期看
,底座模型的技术壁垒、生态协同及政策红利将支撑其成为AI 2.0时代的核心平台级企业。
正如刘庆峰所言:“如果今天不让自己的企业和生命运行在大模型之上,大概率现在所有靠人力和市场的商业模式都会在一两年内被彻底颠覆掉。”