微信扫码
添加专属顾问
我要投稿
深入解析MCP协议,掌握AI大模型与外部服务交互的新标准。 核心内容: 1. MCP协议的定义及其在AI大模型中的应用价值 2. MCP技术架构及其核心组件详解 3. MCP实战应用:项目初始化与MCP Server安装指南
MCP(ModelContextProtocol)是Anthropic在2024年11月推出的开放协议,旨在标准化大型语言模型与外部数据源、工具之间的交互方式。简单来说,MCP就是AI大模型的"万能插座"或"通用语言",让不同的大模型能够以统一方式调用外部工具、获取实时数据并与各类服务交互。
类比而言,如果把大模型比作一台高性能电脑,那么MCP就是它的USB接口——正如USB允许电脑连接摄像头、打印机等外设一样,MCP允许AI模型"接入"天气预报、数据库查询、代码执行等各种外部服务。这种连接不仅是单向的数据获取,更是双向的交互通道,使得AI不仅能"读取"信息,还能"操作"现实世界中的工具和系统。
MCP协议技术架构
MCP采用客户端-服务器架构,主要由三个核心组件构成:
1.MCP主机(MCP Host):任何提供 AI 交互环境、访问外部工具和数据源并运行 MCP Client 的 AI 应用(如 Claude 桌面版、Cursor)。
2.MCP客户端(MCP Client):在 Host 内运行,实现与 MCP Servers 的通信。
3.MCP服务器(MCP Server):对外开放特定能力,并提供对数据源的访问权限,包括:
Tools:允许服务器公开可执行的函数,这些函数可由客户端调用并由 LLM 使用来执行操作。Tool 不仅人让 LLM 能从外部获取信息,还能执行写入或操作,为 LLM 提供真正的行动力。
Resources:服务器希望提供给客户端的任何类型的只读数据。这可能包括:文件内容、数据库记录、图片、日志等等。
Prompts:由服务器定义的可重用的模板,用户可以选择这些模板来引导或标准化与 LLM 的交互过程。例如,Git MCP Server 可以提供一个“生成提交信息”的提示模板,用户可以用它来创建标准化的提交消息。
MCP的实战应用
初始化项目
使用 MCP Python SDK 来编写项目,使用 uv 来管理 Python 项目依赖。
1.安装 uv 可以参考 Installing uv。MacOS 用户可以使用 brew 进行安装:
2.执行以下命令初始化项目:
3.添加依赖:
4.创建 server.py 文件,接下来将会在该文件中编写代码:
在 Claude Desktop 中安装 MCP Server
1.在.evn 文件中设置好 Elasticsearch 的连接信息。
2.可以执行以下命令将 MCP Server 安装到 Claude Desktop 中:
--env-file 参数指定了.evn 文件的路径,用于加载环境变量。
--with-editable 参数指定了 uv 依赖管理文件 所在的目录pyproject.toml,用于安装项目的依赖。
该命令会自动帮助你在cluade_desktop_config.json文件中添加 MCP Server 的配置。
Elasticsearch 客户端配置
首先创建 Elasticsearch 客户端,用于和 Elasticsearch 服务器进行交互。
初始化FastMCP Server
以下代码创建一个名为 mcp的 FastMCP 对象
添加 Tool
1.Tool 定义了允许 LLM 可以调用 MCP Server 执行的操作,除了查询以外,还可以执行写入操作。接下来定义了两个 Tool:
list_indices: 列出所有可用的索引。
get_index: 获取指定索引的详细信息。
使用@mcp.tool() 装饰器将这两个函数标记为 MCP 的 Tool。
2.然后重启 Claude Desktop,一切正常的话,你应该能在输入框的右下角看到一个锤子图标。点击锤子图标,可以看到 Elasticsearch MCP Server 提供的工具信息。
添加Resource(资源)
1.Resource 定义了 LLM 可以访问只读的数据源,可以用于为 LLM 提供上下文内容。在这个示例中,我们定义了两个资源:
es://logs:允许 LLM 访问 Elasticsearch 容器的日志信息,通过 Docker 命令获取日志内容。
file://docker-compose.yaml:允许 LLM 访问项目的docker-compose.yaml文件内容。
使用@mcp.resource() 装饰器将这些函数标记为 MCP 的 Resource,装饰器参数指定了 Resource 的 URI。
2.重启 Claude,点击插头图标,可以看到 Elasticsearch MCP Server 提供的 Resource。
添加Prompt(提示)
1.我们定义一个名为es_prompt 的提示模板,引导 LLM 从多个维度(如索引设置、搜索优化、数据建模和扩展性等)对索引进行分析。
2.重启 Claude Desktop,点击插头图标,选择 es_prompt,并输入待分析的索引 student。
应用实例
场景描述:现在假设我们有这样一个需求,读取 movies.csv 文件,将文档写入 Elasticsearch 的 movies 索引中,如果电影票房超过 1 亿美元,则在文档中设置一个额外的字段 isPopular: true,否则设置为isPopular: false。
在过去,我们可能会考虑使用 Elasticsearch Ingest Pipeline 的 Script processor 来实现这一需求。
现在我们则可以通过 Resource 向 LLM 提供要读取的 movies.csv 文件,LLM 会对电影票房进行计算,然后设置文档的isPopular:字段值,最后调用write_documents Tool 来将文档写入 Elasticsearch 的 movies 索引中。
具体的实现代码如下:
之后重启 Claude,选择 file://movies.csv/ Resource,然后向 Claude 发送以下指令:将文件中的电影写入 Elasticserach 中的 movies 索引,如果电影票房超过 1 亿美元,那么在该文档中设置一个额外的字段 isPopular: true,否则设置为 false。
可以看到 Claude 顺利地完成了我们指定的任务。
在 Kibana 中查询 movies 索引,可以看到我们的数据已经成功写入,并且 isPopular 字段也已经被正确设置了。
通过上述这个组合示例,展示了如何让 LLM 利用这些组件完成更复杂的数据处理任务,充分体现了 MCP 在提升 LLM 应用开发效率方面的优势。
行业影响预测
MCP协议的诞生标志着AI应用进入新阶段——从封闭的对话系统,走向开放的、能真正改变工作流的智能代理。它不仅是技术协议,更是重塑人机协作范式的钥匙。如同USB标准催生了外设产业的繁荣,MCP有望孕育出全新的AI工具生态。
对于开发者,现在正是参与这一变革的良机:无论是构建垂直领域的MCP服务器,还是开发创新的客户端体验,都能在这片新蓝海中找到位置。
对于企业用户,MCP提供了将AI深度融入业务流程的标准化路径,同时保障数据安全。
可以预见,随着MCP生态的成熟,"连接"将成为AI的新能力维度——能无缝接入多少工具、多广的数据,决定了智能体的实际价值边界。
这场由MCP开启的连接革命,或许正是通向真正通用人工智能的关键一步。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-16
Claude 推出高级 Research 功能,并深度集成 Google Workspace
2025-04-16
智能体工作流与设计模式解析
2025-04-16
GPT-4.1一手实测,实力绝对被低估了
2025-04-16
这些你不知道的 OpenAI 4.1 秘密
2025-04-15
前沿导读 | 大模型智能体驱动的社会仿真
2025-04-15
Gemini 2.5 Pro 暴击 OpenAI,性能猛兽不翻车,全球顶尖实至名归
2025-04-15
OpenAI 再放大招!100 万超长上下文的GPT-4.1 横空出世
2025-04-15
5W字长文 Agent多智能体探秘:架构设计、交互模式与应用实践深度剖析
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-04-13
2025-04-13
2025-04-13
2025-04-12
2025-04-12
2025-04-11
2025-04-11
2025-04-10