「没有应用,芯片、模型都没有价值。模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。」
4 月 25 日上午,百度在武汉正式举行了 Create 2025 百度 AI 开发者大会,百度创始人李彦宏再度强调了「AI 应用」对于这一波 AI 浪潮的重要性。当然,AI 应用也离不开底层模型的进步和生态的完善。
于是我们看到,百度在这场大会上还发布了文心大模型 4.5 Turbo、X1 Turbo 两款旗舰大模型,其中文心 X1 Turbo 作为推理模型号称整体效果领先 DeepSeek-R1。
但与往年不同的是,这一次的 AI 开发者大会,百度的目标并不仅仅是发布更强大的模型,而是试图打破过去「模型孤岛」的局限,让模型、智能体、应用和生态标准之间建立起高效流动的连接通路。
图/雷科技
一方面,百度正式推出了通用超级智能体「心响 App」;另一方面,百度同时也宣布拥抱 MCP 生态。从低成本多模态大模型,到能调度多智能体协作的超级 App,再到全力构建 MCP 生态,百度无疑想用一系列实打实的发布告诉开发者们:
属于 AI 应用爆发的时代,真的来了。
当然,发声的其实不只是百度,过去几个月 AI 行业开始密集投入智能体,并且纷纷拥抱 MCP 生态,Google 甚至还推出 A2A(Agent2Agent)开放协议作为 MCP 协议的补充。可以清晰看到,一个比拼开放协作、智能体调度能力、应用生态规模的新战场,已经拉开了帷幕。
文心 4.5 Turbo 与 X1 Turbo :更强,还更便宜
图/雷科技
作为文心 4.5 的升级版,文心 4.5 Turbo 在速度和成本上做出了前所未有的优化。与前代相比,文心 4.5 Turbo 不仅提升了处理速度,还大幅降低了使用成本。
根据官方提供的数据,文心 4.5 Turbo 在多个基准测试中表现出色,尤其是在文本和多模态能力的提升上。通过引入先进的技术,如自适应模态感知和时空重排列编码,文心 4.5 Turbo 的多模态理解能力相比前代提升了 30%以上。
特别是在图像与文本的多模态融合处理上,文心 4.5 Turbo 表现出了更高的精准度和更快的响应速度。换言之,它在图像描述生成、语音到文本的转换等任务中,理论上能够提供更加流畅和自然的输出。
更重要的是,与前代文心 4.5 相比,文心 4.5 Turbo 的成本降低了高达 80%,每百万 token 的输入价格为 0.8 元,输出价格为 3.2 元,甚至仅为 DeepSeek-V3 的 40%。
大会上,李彦宏说「创新的本质是成本下降」。虽然我更认同「效率提升」才是创新的本质,但无论如何,成本的优势,确实不仅能够降低开发者的使用门槛,推动了 AI 技术的普及和应用落地,开发者和企业也能够在大规模应用中获得更多的性价比优势。
图/百度
而与文心 4.5 Turbo 注重多模态和成本优化不同,文心 X1 Turbo 则在推理能力和深度思维链方面做出了创新。
作为文心系列中的推理模型,文心 X1 Turbo 主攻复杂任务的分析与解决,特别是在需要深度思考、推理和跨领域知识整合的场景中。按照百度官方的介绍,文心 X1 Turbo 突破了仅基于思维链优化的范式,在思考路径中结合工具调用,构建了融合思考和行动的复合思维链。
在官方提供的基准测试结果,文心 X1 Turbo 整体效果领先 DeepSeek R1、V3 最新版,略低于 GPT o1 满血版。同时文心 X1 Turbo 的成本也降低了 50%,每百万 token 的输入价格为 1 元,输出价格为 4 元,仅为 DeepSeek-R1 的 25%。而价格的大幅下调,也降低了企业在使用高性能 AI 推理模型时的成本负担。
「心响」不虚Manus,百度要造 MCP 生态
在这届 AI 开发者大会上,百度不仅发布了文心 4.5 Turbo 与 X1 Turbo 两款重要大模型,还重磅推出了通用超级智能体「心响 App」、面向全社会开放无代码智能体「秒哒」,并宣布帮助开发者全面拥抱 MCP(模型上下文协议)生态。
算是情理之中,意料之外。
通用智能体的发展算得上是 2025 年 AI 行业的一个共识,而心响 App 则是百度的最新尝试,核心是打破传统 AI 助手「问答式」服务的局限,提供更为全面、自动化的任务执行能力。
图/雷科技
与过去依赖单一智能体完成任务不同,心响通过多智能体协作的方式,能够调度多个领域的 AI 分身一起工作,从而完成更复杂的任务。这种能力的提升,使得心响不仅能够帮助用户解决日常任务,还能为行业解决更具挑战性的难题。
比如在稍早前百度举办的媒体沟通会上,百度智能体业务首席架构师、心响 App 负责人黄际洲就提到,心响已经实现了基于多名医生的 AI 分身进行联合会诊的功能,同时分析健康症状和相关信息,提供更具针对性的健康建议。
例如,在医疗领域,心响能够调动多个智能体同时分析健康数据,提供个性化的诊断建议;在教育领域,心响则能根据学习内容自动生成辅导资料,帮助学生高效学习。
但实际的表现如何,感兴趣的朋友还可以关注雷科技公众号,我们对「心响 App」进行了实际的体验。
而在「心响」背后,更不能忽略的是百度尝试打造一个开放、协作的智能体生态。MCP(模型上下文协议)则是这个生态革命的关键之一,提供了一个标准化的接口,使得不同的 AI 模型、工具和服务能够无缝集成与协作,所以也被普遍称为「AI 世界的 USB-C 接口」。
图/雷科技
不仅是百度,阿里、腾讯、字节跳动、Google,甚至是 OpenAI,也都在积极拥抱 MCP 协议,阿里云智能集团资深副总裁刘伟光说,MCP 是今天公认的业界标准,Google DeepMind CEO 德米斯·哈萨比斯更明确表示:
MCP 是一个很好的协议,它正在迅速成为 AI 智能体时代的一个开放标准。
图/ X
这可能是 Anthropic(开发了 Claude)最早推出 MCP 协议时也没想到的,只能说:时也,运也。
回到百度,在 AI 开发者大会上,百度面向所有人宣布将全面支持 MCP 生态,助力开发者在统一的协议框架下构建更加丰富的 AI 应用。通过与 MCP 的结合,不仅可以增强心响和秒哒的竞争力,也在为全球开发者提供了接入平台,允许第三方智能体与其无缝对接,拓展了智能体应用的生态圈。
写在最后
这不是百度第一次举办 AI 开发者大会,甚至不是大模型技术浪潮爆发后的第一届,但这一届可能至关重要。核心在于,拥抱 MCP 不仅仅是百度的战略布局,更是整个 AI 行业的一次重要变革。
尤其是全球 AI 巨头的共同参与,几乎可以预判,MCP 协议就是未来一段时间内推动 AI 技术开放与合作的核心标准。甚至,Google 在 4 月初还专门推出了 A2A(Agent-to-Agent)协议来作为 MCP 协议的补充,以进一步解决不同 AI 智能体之间的协作与信息传递问题。
从这个角度来看,整个 AI 行业,尤其是智能体领域,正在向着一个开放、协同的方向快速发展。过程中,MCP 协议的推广不仅促进了技术的创新,也推动了行业的整合与融合。
图/百度
而在这个新的阶段,百度有机会凭借更低门槛、更强工具链、更丰富的应用场景,重新定义开发者与 AI 的关系。
实际上,不管是更强、更便宜的文心 4.5 Turbo 和 X1 Turbo,还是基于 MCP 生态打造的通用超级智能体「心响」,其实也不难看出,从底座模型到 MCP 生态,再到通用智能体,百度显然在试图抓住这一轮的趋势:
既是智能体爆发的趋势,也是 AI 生态大爆发的趋势。