支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


深度解析MCP协议

发布日期:2025-04-10 22:52:01 浏览次数: 1635 作者:智见AGI
推荐语

深入解析MCP协议,掌握AI大模型与外部服务交互的新标准。

核心内容:
1. MCP协议的定义及其在AI大模型中的应用价值
2. MCP技术架构及其核心组件详解
3. MCP实战应用:项目初始化与MCP Server安装指南

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
什么是MCP协议


MCP(ModelContextProtocol)是Anthropic在2024年11月推出的开放协议,旨在标准化大型语言模型与外部数据源、工具之间的交互方式。简单来说,MCP就是AI大模型的"万能插座"或"通用语言",让不同的大模型能够以统一方式调用外部工具、获取实时数据并与各类服务交互。


类比而言,如果把大模型比作一台高性能电脑,那么MCP就是它的USB接口——正如USB允许电脑连接摄像头、打印机等外设一样,MCP允许AI模型"接入"天气预报、数据库查询、代码执行等各种外部服务。这种连接不仅是单向的数据获取,更是双向的交互通道,使得AI不仅能"读取"信息,还能"操作"现实世界中的工具和系统。


MCP协议技术架构


MCP采用客户端-服务器架构,主要由三个核心组件构成:


1.MCP主机(MCP Host):任何提供 AI 交互环境、访问外部工具和数据源并运行 MCP Client 的 AI 应用(如 Claude 桌面版、Cursor)。


2.MCP客户端(MCP Client):在 Host 内运行,实现与 MCP Servers 的通信。


3.MCP服务器(MCP Server):对外开放特定能力,并提供对数据源的访问权限,包括:


Tools:允许服务器公开可执行的函数,这些函数可由客户端调用并由 LLM 使用来执行操作。Tool 不仅人让 LLM 能从外部获取信息,还能执行写入或操作,为 LLM 提供真正的行动力。


Resources:服务器希望提供给客户端的任何类型的只读数据。这可能包括:文件内容、数据库记录、图片、日志等等。


Prompts:由服务器定义的可重用的模板,用户可以选择这些模板来引导或标准化与 LLM 的交互过程。例如,Git MCP Server 可以提供一个“生成提交信息”的提示模板,用户可以用它来创建标准化的提交消息。



MCP的实战应用


初始化项目


使用 MCP Python SDK 来编写项目,使用 uv 来管理 Python 项目依赖。


1.安装 uv 可以参考 Installing uv。MacOS 用户可以使用 brew 进行安装:



2.执行以下命令初始化项目:



3.添加依赖:



4.创建 server.py 文件,接下来将会在该文件中编写代码:



在 Claude Desktop 中安装 MCP Server


1.在.evn 文件中设置好 Elasticsearch 的连接信息。



2.可以执行以下命令将 MCP Server 安装到 Claude Desktop 中:


--env-file 参数指定了.evn   文件的路径,用于加载环境变量。


--with-editable 参数指定了 uv 依赖管理文件  所在的目录pyproject.toml,用于安装项目的依赖。



该命令会自动帮助你在cluade_desktop_config.json文件中添加 MCP Server 的配置。


Elasticsearch 客户端配置


首先创建 Elasticsearch 客户端,用于和 Elasticsearch 服务器进行交互。



初始化FastMCP Server


以下代码创建一个名为 mcp的 FastMCP 对象



添加 Tool


1.Tool 定义了允许 LLM 可以调用 MCP Server 执行的操作,除了查询以外,还可以执行写入操作。接下来定义了两个 Tool:


list_indices: 列出所有可用的索引。

get_index: 获取指定索引的详细信息。


使用@mcp.tool() 装饰器将这两个函数标记为 MCP 的 Tool。



2.然后重启 Claude Desktop,一切正常的话,你应该能在输入框的右下角看到一个锤子图标。点击锤子图标,可以看到 Elasticsearch MCP Server 提供的工具信息。



添加Resource(资源)


1.Resource 定义了 LLM 可以访问只读的数据源,可以用于为 LLM 提供上下文内容。在这个示例中,我们定义了两个资源:


es://logs:允许 LLM 访问 Elasticsearch 容器的日志信息,通过 Docker 命令获取日志内容。

file://docker-compose.yaml:允许 LLM 访问项目的docker-compose.yaml文件内容。


使用@mcp.resource() 装饰器将这些函数标记为 MCP 的 Resource,装饰器参数指定了 Resource 的 URI。



2.重启 Claude,点击插头图标,可以看到 Elasticsearch MCP Server 提供的 Resource。



添加Prompt(提示)


1.我们定义一个名为es_prompt 的提示模板,引导 LLM 从多个维度(如索引设置、搜索优化、数据建模和扩展性等)对索引进行分析。



2.重启 Claude Desktop,点击插头图标,选择 es_prompt,并输入待分析的索引 student。



应用实例


场景描述:现在假设我们有这样一个需求,读取 movies.csv 文件,将文档写入 Elasticsearch 的 movies 索引中,如果电影票房超过 1 亿美元,则在文档中设置一个额外的字段 isPopular: true,否则设置为isPopular: false。


在过去,我们可能会考虑使用 Elasticsearch Ingest Pipeline 的 Script processor 来实现这一需求。


现在我们则可以通过 Resource 向 LLM 提供要读取的 movies.csv 文件,LLM 会对电影票房进行计算,然后设置文档的isPopular:字段值,最后调用write_documents Tool 来将文档写入 Elasticsearch 的 movies 索引中。


具体的实现代码如下:



之后重启 Claude,选择 file://movies.csv/  Resource,然后向 Claude 发送以下指令:将文件中的电影写入 Elasticserach 中的 movies 索引,如果电影票房超过 1 亿美元,那么在该文档中设置一个额外的字段 isPopular: true,否则设置为 false。



可以看到 Claude 顺利地完成了我们指定的任务。



在 Kibana 中查询 movies 索引,可以看到我们的数据已经成功写入,并且 isPopular 字段也已经被正确设置了。



通过上述这个组合示例,展示了如何让 LLM 利用这些组件完成更复杂的数据处理任务,充分体现了 MCP 在提升 LLM 应用开发效率方面的优势。


行业影响预测


MCP协议的诞生标志着AI应用进入新阶段——从封闭的对话系统,走向开放的、能真正改变工作流的智能代理。它不仅是技术协议,更是重塑人机协作范式的钥匙。如同USB标准催生了外设产业的繁荣,MCP有望孕育出全新的AI工具生态。


对于开发者,现在正是参与这一变革的良机:无论是构建垂直领域的MCP服务器,还是开发创新的客户端体验,都能在这片新蓝海中找到位置。


对于企业用户,MCP提供了将AI深度融入业务流程的标准化路径,同时保障数据安全。


可以预见,随着MCP生态的成熟,"连接"将成为AI的新能力维度——能无缝接入多少工具、多广的数据,决定了智能体的实际价值边界。

这场由MCP开启的连接革命,或许正是通向真正通用人工智能的关键一步。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询