微信扫码
添加专属顾问
我要投稿
大模型上下文协议MCP的货币化前景解析。 核心内容: 1. MCP快速崛起背后的原因与市场热度 2. MCP如何推动大模型生态和货币化机会 3. MCP对程序员工作流程的影响及未来趋势
打开这篇文章的读者,都有一致的观察,2月中旬开始,MCP 火了。我们来看看反映开源项目热度的两个关键指标,GitHub Star 和搜索指数。
Star 从2月开始,加速增长:
微信指数,从2月开始,出现流量突增:
从社群的交流看,预计4月,国内会集中出现一批 MCP 中间件提供商,包括 Server、Client、Server hosting、Registy、Marketplace 等,在各自原有的优势领域进行延展。本文旨在进一步厘清一些易混淆的概念,并分享看到的一些货币化机会,以及我们在 MCP 上的计划和进展。
一、为什么 MCP 火了?
MCP 在大模型和第三方数据、API、系统的交互过程中,用单一的标准协议取代碎片化的集成方式[1],是 N x N 向 One for All 的演进,能以更简单、更可靠的方式让人工智能系统获取所需数据。
MCP 是去年11月发布,迅速获得市场的第一波关注;今年2月,Cursur、Winsurf、Cline 均开始引入 MCP,不同于前期已经接入的上千家被调用方,AI 编程引入 MCP,可以认为是吹响了大模型生态效应的号角,将 AI 编程工具端的大量开发者引向被调用方,以唤醒规模巨大的存量应用和系统。
从产业链的视角看,这不仅能解决 AI 应用和海量经典在线应用孤岛化、碎片化的现状,也能大幅提升 AI 编程工具的使用深度、扩大使用群体,还给 AI 应用带来了足够大的货币化空间,以及给经典在线应用引入更多的流量,甚至还能催生自然语言使用专业软件的市场,举个例子,Blender MCP 将 AI 连接到 Blender,就可以通过简单的文本提示来创建、修改和增强 3D 模型。
在这个生态内,MCP、AI 类应用、AI 编程工具、经典在线应用都是受益方 ,谁先接入谁先获益。OpenAI 宣布支持 MCP,将加速 MCP 成为 AI 原生应用的核心基础设施。P.S. 由于国内大模型还未在大模型上下文协议有所动作,MCP 最终能否成为事实标准,在国内依然存在不确定性。
从关键生产力程序员的视角看,程序员现在无须切换到 Supabase 来检查数据库状态,而是可以使用 Postgres MCP 服务器执行只读 SQL 命令,使用 Redis MCP 服务器直接从 IDE 直接和 Redis 键值存储进行交互。在迭代代码时,还可以利用 Browsertools MCP 让编码代理访问实时环境以进行反馈和调试。这个并不新鲜,程序员使用云产品的时候,也会更倾向于使用 API 方式来调用云产品的能力,而非在多个云产品的控制台上之间跳转。
程序员往往是新技术的早期采用者,随着 MCP 的成熟,普通消费者也可以通过自然语言,助推 MCP 产业链的繁荣。
二、MCP 越成熟,Function Calling 越无用武之地?
首先,MCP 和 Function Calling 都是大模型调用外部数据、应用和系统的技术实现方式。MCP 由 Anthropic 在2024年11月底推出,Function Calling 由 OpenAI 在2023年6月首次提出(即创建一个外部函数作为中介,一边传递大模型的请求,另一边调用外部工具,其他大模型大多也采用这类技术方案)。但是他俩在定位、开发成本等方面有着较明显的差异。
定位不同:
开发成本不同:
交互方式不同:
与模型能力的深度耦合:
实时性与低延迟需求:
总的来看,MCP 的全面适配会减少对 Function Calling 的依赖,尤其是在跨平台、标准化工具集成场景中。但是 Function Calling 仍将在特定场景中不可替代,例如模型主导的动态决策、实时任务执行、专有生态集成等,并且在一些轻量化的调用场景中,Function Calling 在实效性方面更具优势。未来,两者可以形成互补,MCP 成为基础协议层,Function Calling 作为模型增强层,共同推动 AI 与外部世界的无缝交互。
三、MCP 改变的是供应端,变革的却是消费端
不同人对供应端和消费端的理解有所不同,我们对供应端和消费端在本文中做一个定义:
首先不得不提 Devin 和 Manus。
Devin 的出现,是 AI 编程从编程辅助工具向程序员代理的质变,不再仅仅是代码补全和辅助生成,而是能覆盖从需求分析→代码编写→测试→部署→Bug修复全程,独立处理完整任务的,Devin 变革的是程序员群体(国内用户使用程序员代理,推荐灵码);Manus 变革的则是广大普通的互联网用户,用户和 AI 的交互,不再仅仅是一问一答的对话机器人服务模式,而是能调动 AI 应用以外的互联网在线服务,自主、完整地实施用户想法的通用 AI 代理,实现了从“被动应答”到“主动共创”的质变。
结果越是智能,过程越是复杂。“认知负荷是工程效能的核心阻碍”这一观点,在 AI Agent 上表现更甚。因此 AI Agent 对高效的开发和工程范式需求更加强烈。
不同于经典互联网,AI Agent 的产品化和工程化更加复杂。电商应用满足了用户不出门就能购物的需求,聊天应用满足了用户不出门就能社交的需求,是一种体力替代,AI Agent 则是一种脑力和心力替代,帮助用户完成从基础生存到高阶创造的全链条活动。若仅依赖于 Function Calling 来调用外部应用,显然不是一种高效的开发范式。MCP 才能让开发者可以更加便捷的手搓下一个 Manus。他好比是互联网世界的 HTTP 协议,让所有客户端和网站,均基于同一个规范进行通信,并由此推动全球开发者共同协作,加速 AGI 的到来。
四、MCP 加速了大模型的货币化?
从我们的观察来看,确实如此。
以 Firecrawl 为例,这个开源项目提供:
在支持 MCP 之前,Firecrawl 已具备全自动网页爬取能力,但依赖传统技术实现,用户需通过 REST API 或 SDK 手动调用 Firecrawl 服务,无法直接与大模型无缝集成。Firecrawl 今年1月通过与 Cline 平台的集成,正式引入了 MCP 协议,开发者可通过 MCP 服务器调用 Firecrawl 的爬取能力,实现“AI模型直接控制网页抓取”的自动化流程。更重要的是,用户不担心协议绑定影响可扩展性,毕竟要实现更丰富的大模型能力,需要依赖多个类似 Firecrawl 的大模型中间件供应商。因此,MCP 是打开了大模型中间件供应商们的网络效应,加速了这类玩家的变现能力。
a16z Infra 团队绘制了一张 MCP Market Map[2] 。这个图涵盖了 MCP 生态当今最活跃的领域,尽管仍有许多空白,但对国内的创新会带来诸多启发。
随着 MCP 的采用率不断提高,基础设施和工具将在 MCP 生态系统的可扩展性、可靠性和可访问性方面发挥关键作用。由此带来一个可能会完全不同于经典互联网产业链的结果:to B 领域的机会将比 to C,更加丰富。
近日,Higress 作为 AI 原生的 API 网关,开源 Remote MCP Server 托管方案,实现存量 API 到 MCP 的无缝转换。该方案已经被 Anthropic 官方采纳,并发布至 MCP GitHub 介绍页。
此外,Nacos 发布 MCP Registry,实现存量应用接口“0改动”升级到 MCP 协议。作为 MCP Registry,Nacos 扮演控制面的角色,提供存量的服务管理和动态的服务信息定义,帮助业务在存量接口不改动的情况下,通过 Nacos 的服务管理动态生效 Higress 网关所生成的 MCP Server 协议。
Nacos + Higress 的组合,再加上 Apache RoceketM、OTel 等开源方案,正最大化复用云原生的存量技术组件,极大降低经典互联网应用构建 AI Agent 的构建成本。
阿里云资深技术专家李艳林(彦林)绘制
五、MCP 生态越繁荣,越依赖网关和可观测?
MCP Server 是功能服务的封装,其本质是通过 MCP 协议提供标准化接口的服务端。但凡涉及跨网访问,就需要身份验证、授权、数据加解密、防攻击机制等。此时,便需要一个面向 MCP Server 管控的 MCP 网关了。
与 API 网关类似,MCP 网关将强制执行访问控制、将请求路由到正确的 MCP 服务器、处理负载平衡并缓存响应以提高效率。这对于多租户环境尤其重要,因为不同的用户和代理需要不同的权限。标准化的网关将简化客户端与服务器之间的交互、提高安全性并提供更好的可观测性,从而使 MCP 部署更具可扩展性和可管理性。
以上能力,已在 Higress Remote MCP Server 托管方案实现。
在 MCP 生态中,由于调用关系更加复杂和多样,可观测也是不容忽视的基础设施:
作为标准化的地图服务能力平台,高德已率先推出其 MCP Server,提供12大核心功能,助力企业级智能体应用开发。我们预计,国内将快速诞生一大波 MCP Servers 和 MCP 中间件,加速 AI Agent 的产品化和工程化。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-04-01
2025-04-01
2025-04-01
2025-03-30
2025-03-30
2025-03-28
2025-03-27
2025-03-27