智东西
作者 ZeR0
编辑 漠影
智东西4月25日报道,今日,Create2025百度AI开发者大会在武汉举办。会上,百度创始人李彦宏发表了题为《模型的世界 应用的天下》的演讲,发布了两大模型,多款热门AI应用,并宣布将帮助开发者全面拥抱MCP。
当天发布的文心大模型4.5 Turbo和深度思考模型X1 Turbo,能力更强、成本更低。相比文心4.5,文心大模型4.5 Turbo速度更快,价格下降80%。文心大模型X1 Turbo相比文心X1,性能提升的同时,价格再降50%。
与此同时,李彦宏连发高说服力数字人、通用超级智能体心响APP、内容操作系统沧舟OS等多款AI应用,覆盖AI数字人、代码智能体、多智能体协作等热门赛道。
百度还发布了全球首个电商交易MCP、搜索MCP等MCP server,供开发者调用,帮助开发者全面拥抱MCP。
李彦宏在会上宣布,正式启动第三届“文心杯”创业大赛,支持创业者,特别大奖的投资额最高可达7000万元。未来5年,百度将加大力度,再为社会培养1000万AI人才。
百度集团执行副总裁、百度智能云事业群总裁沈抖分享了百度智能云在智能基础设施建设方面的最新成果,并在算力、模型及应用等方面发布一系列全新产品。
大模型的高效落地亟需从底层算力到应用的全栈、系统级支撑——既需高性能硬件与集群优化,也需灵活的开发工具链与场景化解决方案。基于多年在大模型研发与产业落地的深厚积累,百度智能云构建了新一代系统级智能基础设施,为企业大模型应用落地提供更好的解决方案。
相关数据显示,2024全年百度智能云在大模型相关中标项目数、行业覆盖数、央国企中标项目数等三个维度均为第一,在能源、政务、金融三个行业的中标项目数位于所有厂商第一。
截止目前,千帆平台企业用户数量超40万,千帆平台组件数量超1000个,企业在千帆平台上已开发出了超100万个应用。
当天的One More Thing环节,百度正式点亮了国内首个全自研的3万卡集群。该集群可同时承载多个千亿参数大模型的全量训练,支持1000个客户同时做百亿参数的大模型精调。
一、发布文心大模型4.5 Turbo和文心大模型X1 Turbo:价格最高降80%
百度发布文心大模型4.5 Turbo和文心大模型X1 Turbo,具备多模态、强推理、低成本三大特性。
文心大模型X1 Turbo,输入价格为每百万token1元,输出价格4元,相比文心X1,性能提升的同时价格再降50%,仅为DeepSeek-R1的25%。
文心大模型4.5 Turbo,每百万token的输入价格仅为0.8元,输出价格3.2元,相比文心4.5,价格下降80%,仅为DeepSeek-V3的40%。
李彦宏认为,当前开发者做AI应用的一大阻碍,就是大模型成本高、用不起。成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。
百度判断“多模态将成为未来基础模型的标配”。因此文心大模型4.5 Turbo和X1 Turbo都进一步增强了多模态能力。
在多个基准测试集中,文心4.5 Turbo多模态能力与GPT-4.1持平、优于GPT-4o。
▲文心4.5 Turbo-多模态
▲文心4.5 Turbo-文本
文心大模型X1 Turbo是基于4.5 Turbo的深度思考模型,性能提升的同时,具备更先进的思维链,问答、创作、逻辑推理、工具调用和多模态能力进一步增强,整体效果领先DeepSeek R1、V3最新版。
▲文心X1 Turbo
“有了这样超级能干的基础模型,我们就可以打造出超级有用、超级有趣的AI应用来。”李彦宏说。
二、多模态应用:高说服力数字人、内容操作系统“沧舟OS”
李彦宏谈道,2025年最令人激动的突破性应用之一,就是AI数字人。
高说服力数字人是多模态大模型的一个典型应用。百度发布的高说服力数字人,具有声形超拟真、内容更专业、互动更灵活的特点,在电商直播、游戏、消费等领域有着广阔的应用空间。
在电商直播场景下,传统的数字人文案枯燥、动作少、机器音重;而高说服力数字人的表现力甚至可以超越真人。基于多模态大模型,高说服力数字人拥有“剧本生成”能力,能够做到表情、语气、动作都匹配台词内容实时调整,让数字人的情绪转折和动作切换十分顺畅。
高说服力数字人还具备“AI大脑”,能根据直播间实时热度和转化情况,灵活调度助播、场控、运营等角色共同促进转化,譬如适时切换镜头画面、调度图片、视频素材,真正实现了“一个人就是一支营销团队”。
目前,百度慧播星已上线“一键克隆”功能。用户只需录制一条最短2分钟的视频上传训练,即可拥有自己的专属数字人,人人都能做主播。
会上,李彦宏还带来了百度文库、百度网盘联合推出的沧舟OS。
它是全球首个内容领域操作系统,包括了两大核心:
一是Chatfile plus,对不同模态、不同形态、不同格式的内容,做解析和向量化处理,然后再进行混合生成。
二是建立了“三库”和“三器”。三库,就是公域知识库、私域知识库、记忆库;三器,是编辑器、阅读器、播放器,它们可以根据用户的需求被大模型组合调用。
依托沧舟OS,百度网盘上线了“AI笔记”,这是业内唯一的多模态AI笔记。
用户在网盘内观看学习视频时,可一键生成全面、清晰、结构化的AI笔记,还能生成AI思维导图、基于视频内容AI出题,实现视频和笔记在同界面的丝滑联动。
未来,文库和网盘将基于沧舟OS,持续推出更多更好用的AI功能,成为AI时代的“超级生产力”。
截至目前,百度文库的AI功能付费用户已超4000万,AI月活用户达到9700万;百度网盘AI月活用户超过8000万。
三、多智能体应用:通用超级智能体“心响”上线、“秒哒”向全社会开放
智能体(Agent)已成为AI应用的代名词。其中,代码智能体Coding Agent,是最近半年AI应用进展最快、最火的赛道。全球陆续涌现了Cursor、Devin、Lovable等一系列代码智能体。
李彦宏说:“全球有近3000万程序员,有80亿人,当技术的门槛逐渐消失,每个人都可以具备程序员的能力”。
多智能体协作是下一个高价值的AI应用方向。未来的AI应用将从回答问题走向任务交付,而任何一个复杂任务的交付,都需要多智能体的协作来解析需求、分拆任务、调度资源、规划执行,最终交付结果。
会上,百度正式发布多智能体协作App心响。
心响是可以一站式解决用户复杂问题的“通用超级智能体”。以租房维权为例,心响会理清事件关键问题,寻找专家律师AI分身,从不同的角度提供专业建议,最后生成可下载的法律分析报告,并给出详细维权步骤。
目前,心响已覆盖知识解析、旅游规划、学习办公等场景中200个任务类型。
在去年11月的百度世界大会上,百度发布了无代码编程工具“秒哒”,它拥有无代码编程、多智能体协作、多工具调用三大特性。今年3月,秒哒向全社会开放,任何人都可以通过秒哒,一句话生成应用。
借助秒哒,一个大学生团队几分钟就打造了过去需要一周开发时间的营销工具,仅花费5元左右的模型调用费。过程中,秒哒协同了产品经理、架构师、设计师、工程师等多个智能体,调用了智能云的存储、数据库功能,和地图导航、智能客服等工具组件,迅速地完成了应用开发。
四、发布AI开放计划,帮助开发者积极全面拥抱MCP
面对AI应用的井喷,百度搜索开放平台发布了“AI开放计划”(sai.baidu.com),通过建立多样的内容和服务分发机制,为智能体、H5、小程序、独立App等应用开发者提供流量和收益,为用户提供最新最全的AI服务。
此外,百度搜索构建了MCP server的发现平台,可以索引全网市场上优质的server。
李彦宏称,百度将帮助开发者全面拥抱MCP,并现场演示了千帆、搜索、电商、网盘等产品接入MCP的案例。
其中,在百度智能云千帆平台上,开发者可在现有的“万能智能体助手”上,直接添加百度AI搜索和百度优选的MCP Server,让智能体完成从推荐书籍到完成购买。这是国内首个支持电商交易的MCP服务,与最好的搜索MCP相结合的成果。
五、百舸+昆仑芯超节点:推理性能提升13倍,成本降低95%
算力是AI时代的“新电力”。百度智能云通过自研昆仑芯P800芯片及百舸大规模推理加速能力,实现算力性能与成本的双重突破。
本次大会,百度正式点亮了昆仑芯P800的三万卡集群。
在金融行业,招商银行与百度智能云基于昆仑芯P800展开算力合作,能稳定支持各类开源大模型,性能表现卓越,在智能客服、多模态数据分析等场景实现了显著效能提升。
除了招商银行这类金融机构外,昆仑芯P800算力已在国家电网、中国钢研等央企,同济大学、北京大学等高校及一批互联网企业进行规模化部署。
为了进一步降低算力使用成本,百度智能云正式发布昆仑芯超节点。
昆仑芯超节点支持把64张昆仑芯AI加速卡放到同一个机柜,实现单节点的超强性能,一个机柜就能顶过去100台机器。
与以往的方案相比,昆仑芯超节点用更快的机内通信替代机间通信,可以有效降低带宽成本,最终实现卡间互联带宽提升8倍,单机训练性能提升10倍,单卡推理性能提升13倍。
仅仅拥有高性能芯片和大规模集群是远远不够的,如何稳定、高效地释放算力的真正价值才是关键所在。百度集团执行副总裁、百度智能云事业群总裁沈抖认为,未来三年,推理降本,一定是企业最重要的工作。
百度智能云全面升级百舸推理加速能力。通过大规模分布式推理的PD分离,百舸支持客户根据不同场景的业务特点,自适应地设置PD配比,并做到token级别的PD负载均衡。
针对MoE模型,百舸做到了大规模多机专家并行的极致优化,可以大幅降低MoE模型推理的通信开销。
最后,百舸对核心链路上的每一个细节做了系统级的工程优化,大幅提升GPU的有效利用率。
从百度内部实践来看,百舸推理加速的能力正在作为千帆的算力底座,为40万客户提供服务。上线以来,千帆的推理吞吐提升20倍,推理速度提升50%以上。
在外部,百舸不止支持着像招商银行、中国石化、长安汽车等企业的超大规模算力需求,也很好地支撑着创企客户、伙伴的模型训练、推理需求。
以北京人形机器人创新中心为例,百度百舸为创新中心构建了稳定的超大算力集群,确保具身模型的训练和推理得以高效进行,支持了人形机器人的快速迭代。
在近日全球首个人形机器人半程马拉松中,北京人形机器人创新中心旗下纯电驱全尺寸人形机器人“天工”,以2小时40分42秒的成绩率先冲线一举夺冠。
六、为企业应用开发提效,千帆发布智能体Pro及MCP服务
企业部署大模型,不仅需要高性价比的模型服务,更需要全面的模型工具。
在模型服务层面,目前千帆平台上有超过100多个模型,不仅包括文心4.5Turbo、文心X1 Turbo等百度自研模型,还包括DeepSeek、Llama、Vidu等第三方模型,服务稳定、可靠。
在模型开发层面,千帆平台可以提供全面的模型开发工具链,支持深度思考模型、多模态模型的定制、精调。
以模型蒸馏为例,智联招聘在人岗匹配场景使用了千帆平台的模型蒸馏工具链,用千亿参数的DeepSeek R1作为“教师模型”,用百亿参数的ERNIE Speed作为“学生模型”,经过调优后的小参数模型,不仅可以媲美“教师模型”的效果,成本也降低至3成。
在应用开发上,本次大会千帆平台全面升级了企业级Agent开发工具链,发布了全新推理式智能体——智能体Pro,从快问快答升级到深思熟虑,并且支持每个企业定制自己的专属智能体。
以污水宝为例,基于千帆Agentic RAG能力,让Agent结合企业自己的私域数据和企业知识库,可以基于对任务的理解去制定检索策略,大幅降低模型幻觉。
同时,智能体Pro也支持Deep Research深度研究模式,能让Agent自主完成复杂任务的步骤规划、信息筛选和整理,支持像人一样操控电脑浏览网页(Computer Use)进行探索式知识收集,也支持像人一样使用多种工具绘制图标、撰写,生成结构清晰、内容丰富的专业报告。
基于Deep Research能力,荣耀正在利用千帆平台,面向高校学生、职场白领等群体,打造一款科研场景深度研究的应用,将很快会在荣耀笔记本上上线。
MCP的出现,帮助开发者和企业在开发Agent时,能够更好地利用行业数据和工具。
本次大会,百度智能云正式发布国内首个企业级MCP服务,第一批已经有超过1000个MCP Servers供企业及开发者灵活选择。另外,开发者也可以在千帆上开发自己的MCP Server,并发布到MCP广场,支持免费托管,而且百度搜索会索引这些MCP Server,让它们被更多的开发者引用。
从模型服务到应用开发,企业客户已在千帆平台上做出了很多行业创新。民生银行与百度智能云合作,探索大模型在商业银行的落地,完成了金融领域第一个端到端涵盖算力、平台、模型、应用四层架构的项目落地。
七、两大自研AI应用升级:实现营销全旅程服务,视觉AI应用成本大幅下降
百度智能云打造的智能基础设施,也支撑着百度自己的应用创新。会上,百度智能云面向智能营销、视觉AI两大领域,升级了两大自研AI应用产品。
金融营销场景需要高精准获客、“高情商”客服及高效的流失预警,百度智能云本次升级发布客悦·ONE,在上述核心场景进行了全面优化,为客户提供全生命周期智能营销服务,助力企业实现营销效能全面提升。
以理财撤单场景为例,传统模式下,用户需经历复杂的说明阅读和多层级菜单操作,效率低下。客悦通过AI驱动的智能交互,极大简化了这一流程。AI不仅能识别并安抚用户焦虑,更能在对话中直接引导解决问题,还能自动提炼关键信息并回流数据,持续优化服务体验。
目前客悦已经服务银行、证券、保险等不同细分领域的金融企业50余家,落地金融行业10余个场景。
为了解决视觉AI模型训练周期长、门槛高,需要大量人工干预的问题。百度智能云升级发布一见5.0,在标准化高、规则清晰的任务中,仅需一句自然语言,即可秒级生成专业级视觉AI应用,一线业务人员也能轻松上手,借助云边协同,应用成本大幅降低,加速了视觉智能规模化的落地。
目前,百度智能云从算力、平台到应用的系统级能力,已经在多个企业场景中稳定运行。
中国钢研与百度智能云联合打造全栈智能基础设施,基于昆仑芯和百舸,搭建了专属的智算平台;在千帆上做模型精调,使用大、小模型结合的方式获得最佳效果;结合一见视觉平台,快速完成了表面缺陷检测、金相分析等核心场景的应用开发。
结语:模型会有很多,但应用才是王者
过去一年,大模型世界风云变幻。一边是大模型厂商卷死卷生,另一边是开发者无所适从,不敢放心大胆做应用。
Create大会是百度一年一度面向开发者群体的技术发布和交流大会。今年=大会还包括MCP、DeepSeek、智能体等6大分会场,2025百度智能云GENERATE生态大会、40节线下AI公开课、5000平AI互动展区。
会上,李彦宏谈道:“所有这些发布,都是为了让开发者们可以不用担心模型能力、不用担心模型成本、更不用担心开发工具和平台,可以踏踏实实地做应用,做出最好的应用!”
在他看来,只要找对场景,选对基础模型,有时候还要学一点调模型的方法,在此基础上做出来的应用是不会过时的。他强调:“没有应用,芯片、模型都没有价值。模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。”