图片系AI生成
MCP成为AI领域交互的事实标准,只用了几个月。
4月25日在Create2025百度AI开发者大会上百度创始人李彦宏发布了文心大模型4.5 Turbo和深度思考模型X1 Turbo两大模型以及多款AI应用还宣布将帮助开发者全面拥抱MCP
MCP(模型上下文协议)是一种开放标准。它由Anthropic在2024年11月推出。其目的是构建大模型与数据源间安全双向链接。它能解决社区里工具实现风格不统一的问题。还能解决难以跨模型共享的问题。
目前 国内外支持MCP的厂商众多 包括OpenAI Google 微软 亚马逊 Anthropic 阿里 腾讯等 百度也在其中 更多大模型生态链厂商参与进来 发布自己的MCP服务 可以说MCP已成为类似“AI界HTTP”的事实标准
本次大会上,百度智能云正式推出国内首个企业级MCP服务。第一批已有超1000个MCP Servers供企业和开发者挑选。此外,开发者能在千帆上开发自身的MCP Server,之后发布到MCP广场,这里支持免费托管。并且百度搜索会索引这些MCP Server,使其被更多开发者引用。
虽然都从事MCP业务,不同厂商想法存在差异。百度智能云采用企业级路线。前期尽量让更多开发者加入。先增加MCP广场数量。借助百度搜索等独特入口给予支持流量。以此壮大自身MCP生态
为什么需要MCP
MCP的诞生具有必然性。此前大模型应用集中在类Chatbot场景。在更广泛的企业级场景中,大模型应用落地大量依赖开发者的定制化开发。虽然像百度智能云等厂商提供了大模型工具链,简化了部分开发工作。但总体而言,大模型应用仍是苦活累活。
2025年被公认为AI Agent元年。其典型特征是大模型会思考。大模型还能自己规划和执行。大模型是“大脑”。要完成某个具体任务。需为大模型配上“四肢”“五感”等能力
若每个AI应用都采用定制化开发的方式,一个AI应用要对接N个工具,那么M个工具就会有“M×N”的集成复杂度。MCP的价值在于,把大模型和工具的交互确定为标准化协议,所有厂商都使用同一个标准。这样一来,大模型应用开发就变为M+N,极大地降低了复杂程度。
百度集团执行副总裁、百度智能云事业群总裁沈抖称 大模型应用 多数情况下 并非简单调用大模型 而是要对接各类组件与工具 进行精细编排 很多时候 为提升效果 还需调整模型 定制专精模型
他补充说 搭建企业级业务 要考虑计算性能 稳定性 扩展性 安全性 所以 一个应用落地 本质上是构建一个“系统”的过程
一位大模型行业人士称,企业级应用通常比消费级要求更高、容错度更低。2024年,其分析各个行业各个项目后发现,项目90%的时间都花在了应用开发上。原因是模型是标准的,而应用千变万化
好在这些工作存在共性。总结后不过是四件事。一是补充专业知识。二是编排业务流程。三是扩展智能工具。四是集成企业系统。若这些事沉淀下来并封装成平台,实现开箱即用。平台就能用RAG将老专家的经验装入模型。用工作流达成搭积木式业务编排。用智能体+MCP唤醒企业的旧系统和资产
MCP的出现,正符合行业对大模型应用落地的集中期望。
补全企业级Agent的缺口
正如沈抖所说,大模型要落地,急需从底层算力到应用的全栈、系统级支持。这既需要高性能硬件和集群优化,又需要灵活的开发工具链以及场景化解决方案。
百度智能云的系统级能力覆盖算力层。像此次公布的三万卡自研昆仑芯集群,还有升级后的百舸GPU算力平台。其系统级能力也覆盖模型开发层。千帆平台上有超100个模型。其中有百度自研的文心4.5Turbo、文心X1 Turbo等模型。也有DeepSeek、Ilama、Vidu等第三方模型。
在应用开发层面 百度智能云提供千帆企业级Agent服务 还提供MCP服务 借助这些服务 Agent拥有解决复杂问题的能力 同时具备完善的模型开发工具链 该工具链支持深度思考模型定制 支持多模态模型定制 也支持多模态模型精调
在Agent元年,百度智能云着重更新应用开发层。本次大会上,千帆平台全面升级企业级Agent开发工具链。还发布全新推理式智能体——智能体Pro。它从快问快答升级为深思熟虑。并且支持每个企业定制专属智能体。
以污水宝为例 基于千帆Agentic RAG能力 Agent能结合企业自身私域数据与企业知识库 可依据对任务的理解制定检索策略 能大幅降低模型幻觉
同时,智能体Pro支持Deep Research深度研究模式。它能让Agent自主完成复杂任务的步骤规划。还能进行信息筛选和整理。它支持像人一样操控电脑浏览网页进行探索式知识收集。也支持像人一样使用多种工具绘制图标、撰写内容。进而生成结构清晰、内容丰富的专业报告。
MCP出现了。它帮助开发者在开发Agent时。能更好地利用行业数据。它还帮助企业在开发Agent时。能更好地利用工具。它补全了企业级Agent的缺口
开发者拥抱MCP存在两种途径。其一,将自身资源、数据、能力以MCP形式提供出去,供更多AI应用使用。其二,开发AI应用时充分利用现有MCP Server资源,如此既能减少开发量,又能大幅提升能力。
百度智能云的千帆平台是首个支持MCP的大模型平台。此前,大模型及各类工具分布零散,规范各异、互不连通。此后,大模型的工具实现互联互通,生态将极度繁荣。
MCP最终是生态竞争
MCP也就是大模型,本质是平台与生态的竞争。新技术刚爆发时,各种技术范式不成熟。此时往往要端到端优化才能有较好性能。这就是当前大模型应用落地依赖巨头厂商的缘由。
对于巨头厂商而言,比拼的并非长板。而是在不存在短板的情形下,既要搭建好自身的平台能力,又要营造出繁荣的生态。只有这样,才能吸引更多厂商加入自己的生态。进而以一个大模型生态对抗另一个大模型生态。
具体到MCP领域,百度大致贯彻了三步走策略。
第一步是发布自己的MCP Server。百度率先发布了全球首个电商交易MCP以及搜索MCP等。开发者能够在百度智能云千帆平台的“万能智能体助手”里添加百度AI搜索和百度优选的MCP Server。如此一来,智能体就能完成从信息查询、商品推荐到直接下单购买的全流程闭环。这是国内第一个支持电商交易的MCP服务。它与顶级搜索MCP能力相结合。
第二步是支持更多企业开发并调用更多MCP服务。百度智能云千帆平台正式发布国内首个企业级MCP服务。首批上线超1000个MCP Server供企业及开发者选用。同时,开发者可在千帆上开发自己的MCP Server,发布到MCP广场,享受免费托管,还能被百度搜索索引,获得更多曝光及调用机会。
第三步是AI开放计划。百度搜索开放平台发布“AI开放计划”,其网址为sai.baidu.com。该计划旨在通过多样的内容和服务分发机制。为智能体、H5、小程序、独立App等各种形态的应用开发者提供流量入口。为这些开发者提供商业化变现的途径。同时也让用户能便捷地发现最新、最全的AI服务。还能让用户便捷地使用这些服务
更多企业、开发者以MCP方式开放自身能力。这在实现商业价值之际。还壮大了大模型厂商的生态体系。正所谓“剩者为王”。大模型竞争的终局。并非一定是技术更强的厂商。而是生态更繁荣的厂商 。(本文首发于钛媒体APP,作者 | 张帅,编辑 | 盖虹达)
或者下载钛媒体App