支持私有云部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


MCP原理解析与效果实测|附实用MCP推荐

发布日期:2025-03-19 08:18:35 浏览次数: 1551 来源:深度学习机器
推荐语

MCP协议如何简化大型语言模型与外部工具的集成。

核心内容:
1. MCP架构的五个核心组件
2. MCP如何提升大模型智能化水平
3. 实战演示和效果实测案例

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

MCP架构简述

MCP是由Anthropic推出的开源协议,目的是通过统一的连接方式,让大型语言模型(LLM)与外部数据源和工具无缝集成,减少重复造轮子的过程。

截屏2025-03-15 10.54.57.png

MCP架构主要涉及到以下5个部分:

● Host:一个包含MCP Client的应用,可以是Web、App、或其他类型的程序等

● MCP Client:使用MCP协议与Server建立一对一连接

● MCP Server:连接内部、外部、网络资源,使用MCP协议对外提供服务

● Local:内部资源

● Remote:外部/网络资源

OpenAI提出的function calling增强了大模型的能力,通过使用外部工具的方式提升了模型的智能化水平。但是不同的模型使用工具的方式和定义并不完全相同,而且,对于常见的功能需求,比如联网查询和天气查询,也都需要在自己的程序中实现相应的代码。而有了MCP之后,只需要把这些已经被实现的功能引入进自己的项目中,就像导入一个包一样简单。

因此,从实际体验上来讲,可以简单理解成MCP是把Agent涉及到的工具调用、提示词等进行了标准化处理,简化了开发流程,减少了重复造轮子的国产,方便大家无缝使用开源社区中优秀的工具。

Cursor MCP实战

在网上找了一个MCP Server,用于检索arxiv文章(链接:https://github.com/blazickjp/arxiv-mcp-server),这里我使用Cursor作为MCP Client使用,不过需要注意Cursor仅支持MCP中的tools。

截屏2025-03-16 18.18.04.png

1. 安装对应的Server

uv tool install arxiv-mcp-server

2. Cursor配置

在「Cursor Settings」菜单栏中点击「MCP」,然后点击「+ Add new global MCP server」按钮,会弹出一个mcp.json文件,把arxiv-mcp-server中的配置信息添加到json文件中去。

{
    "mcpServers":{
       "arxiv-mcp-server":{
        "command":"uv",
        "args":[
          "tool",
          "run",
          "arxiv-mcp-server",
          "--storage-path","/path/to/paper/storage"
         ]
    }
  }
}

截屏2025-03-16 12.39.17.png

当该MCP Server前面的按钮显示绿色的时候,说明该功能已经可以正常使用了。

3. 效果实测

截屏2025-03-16 12.25.13.png

在这里我输入一个问题「ai agent 2025」,针对改问题,模型判断最适合的工具应该是联网搜索功能,由于这里我点击了拒绝,因此模型判断应该选择工具「search_papers」,可以看到显示的工具名称正是之前配置的MCP Server中的工具名称,因此这里可以选择使用该工具继续。这里可以看到search_papers的结果: 

Parameters:

{
  "query":"AI agents autonomous systems 2025",
  "categories":[
    "cs.AI",
    "cs.LG"
   ],
   "max_results":5
}

Result:

{
  "total_results":5,
  "papers":[
    {
      "id":"2503.10638v1",
      "title":"Studying Classifier(-Free) Guidance From a Classifier-Centric Perspective",
      "authors":[
        "Xiaoming Zhao",
        "Alexander G. Schwing"
       ],
      "abstract":"Classifier-free guidance has become a staple for conditional generation with\ndenoising diffusion models. However, a comprehensive understanding of\nclassifier-free guidance is still missing. In this work, we carry out an\nempirical study to provide a fresh perspective on classifier-free guidance.\nConcretely, instead of solely focusing on classifier-free guidance, we trace\nback to the root, i.e., classifier guidance, pinpoint the key assumption for\nthe derivation, and conduct a systematic study to understand the role of the\nclassifier. We find that both classifier guidance and classifier-free guidance\nachieve conditional generation by pushing the denoising diffusion trajectories\naway from decision boundaries, i.e., areas where conditional information is\nusually entangled and is hard to learn. Based on this classifier-centric\nunderstanding, we propose a generic postprocessing step built upon\nflow-matching to shrink the gap between the learned distribution for a\npre-trained denoising diffusion model and the real data distribution, majorly\naround the decision boundaries. Experiments on various datasets verify the\neffectiveness of the proposed approach.",
      "categories":[
        "cs.CV",
        "cs.AI",
       "cs.LG"
      ],
      "published":"2025-03-13T17:59:59+00:00",
      "url":"http://arxiv.org/pdf/2503.10638v1",
      "resource_uri":"arxiv://2503.10638v1"
},
{
  "id":"2503.10636v1",
  "title":"The Curse of Conditions: Analyzing and Improving Optimal Transport for Conditional Flow-Based Generation",
  "authors":[
     "Ho Kei Cheng",
    "Alexander Schwing"
   ],
  "abstract":"Minibatch optimal transport coupling straightens paths in unconditional flow\nmatching. This leads to computationally less demanding inference as fewer\nintegration steps and less complex numerical solvers can be employed when\nnumerically solving an ordinary differential equation at test time. However, in\nthe conditional setting, minibatch optimal transport falls short. This is\nbecause the default optimal transport mapping disregards conditions, resulting\nin a conditionally skewed prior distribution during training. In contrast, at\ntest time, we have no access to the skewed prior, and instead sample from the\nfull, unbiased prior distribution. This gap between training and testing leads\nto a subpar performance. To bridge this gap, we propose conditional optimal\ntransport C^2OT that adds a conditional weighting term in the cost matrix when\ncomputing the optimal transport assignment. Experiments demonstrate that this\nsimple fix works with both discrete and continuous conditions in\n8gaussians-to-moons, CIFAR-10, ImageNet-32x32, and ImageNet-256x256. Our method\nperforms better overall compared to the existing baselines across different\nfunction evaluation budgets. Code is available at\nhttps://hkchengrex.github.io/C2OT",
  "categories":[
    "cs.LG",
    "cs.CV"
  ],
  "published":"2025-03-13T17:59:56+00:00",
  "url":"http://arxiv.org/pdf/2503.10636v1",
  "resource_uri":"arxiv://2503.10636v1"
}

到这里模型判断已经解决了用户的问题,因此没有下一步。 接下来的交互中,我明确要求模型下载其中的一篇论文,可以看到工具「download_papers」已经被调用,pdf论文被保存为.md格式,并存放在本地路径中。然而还没有结束,模型会接着调用工具「read_papers」,针对论文内容进行解读,直到这一步才终止。

截屏2025-03-16 12.34.22.png

截屏2025-03-16 12.36.56.png

自定义MCP Client和MCP Server

前面提到的Cursor相当于MCP架构中的Client(实际上是包含了Client的host),因此对于普通用户来说,只需要关注自身需要什么样的功能(Server),去找到相应的功能(Server)安装即可。对于开发者而言,如果需要让自己的程序能够使用已有的MCP Server,则需要针对自己的程序进行改造,使其符合MCP规范才行。目前官方也分别提供了Python 和 Js的SDK,可以很方便进行开发。

1. MCP Client

根据官方提供的教程:

https://github.com/modelcontextprotocol/quickstart-resources/tree/main/mcp-client-python

首先,创建一个连接Server的函数,在该函数中,判断脚本类型是否满足(只允许python和js),并且返回可以使用的工具。

async defconnect_to_server(self, server_script_path: str):
"""Connect to an MCP server
      
      Args:
          server_script_path: Path to the server script (.py or .js)
      """

      is_python = server_script_path.endswith('.py')
      is_js = server_script_path.endswith('.js')
      if not(is_python or is_js):
      raise ValueError("Server script must be a .py or .js file")

      command "python"if is_python else"node"
      server_params = StdioServerParameters(
          command=command,
          args=[server_script_path],
          env=None
       )

      stdio_transport await self.exit_stack.enter_async_context(stdio_client(server_params))
      self.stdio, self.write = stdio_transport
      self.session await self.exit_stack.enter_async_context(ClientSession(self.stdio, self.write))

      await self.session.initialize()

# List available tools
      response =await self.session.list_tools()
      tools = response.tools
      print("\nConnected to server with tools:",[tool.name for tool in tools])

接下来,定义输入解析函数,这一步就是大模型工具调用的处理流程。

async defprocess_query(self, query: str)->str:
"""Process a query using Claude and available tools"""
    messages =[
      {
        "role":"user",
        "content": query
      }
    ]

    response =await self.session.list_tools()
    available_tools =[{
      "name": tool.name,
      "description": tool.description,
      "input_schema": tool.inputSchema
     }for tool in response.tools]

# Initial Claude API call
    response = self.anthropic.messages.create(
        model="claude-3-5-sonnet-20241022",
        max_tokens=1000,
        messages=messages,
        tools=available_tools
    )

# Process response and handle tool calls
    final_text =[]

    for content in response.content:
        if content.type=='text':
            final_text.append(content.text)
        elif content.type=='tool_use':
            tool_name = content.name
            tool_args = content.input

# Execute tool call
            result =await self.session.call_tool(tool_name, tool_args)
            final_text.append(f"[Calling tool {tool_name} with args {tool_args}]")

# Continue conversation with tool results
      if hasattr(content,'text'and content.text:
          messages.append({
           "role":"assistant",
           "content": content.text
          })
          messages.append({
            "role":"user",
            "content": result.content
          })

# Get next response from Claude
          response = self.anthropic.messages.create(
                model="claude-3-5-sonnet-20241022",
                max_tokens=1000,
                messages=messages,
          )

            final_text.append(response.content[0].text)

         return"\n".join(final_text)

 


处理对话函数,这里的demo不保留历史记录,只支持单次对话。


async defchat_loop(self):
"""Run an interactive chat loop"""
    print("\nMCP Client Started!")
    print("Type your queries or 'quit' to exit.")

    while True:
    try:
        query =input("\nQuery: ").strip()

        if query.lower()=='quit':
           break

        response =await self.process_query(query)
        print("\n"+ response)

    except Exceptionas e:
    print(f"\nError: {str(e)}")

官方的例子中用到的是Claude模型,但是实测可以兼容OpenAI接口的API,只要能支持tools这个参数即可。

2. MCP Server

MCP Server主要包含了以下3部分的内容:

● Resources:允许访问的静态资源,如文件图片等

● Tools:该Server拥有的工具

● Prompts:预先写好的提示词模版,辅助完成特定任务

官方也提供了一个简单的Server开发demo:

https://github.com/modelcontextprotocol/quickstart-resources/tree/main/weather-server-python

首先,定义了2个函数,用于发起实际的API请求以及解析响应内容。

async defmake_nws_request(url: str)->dict[str,Any]|None:
"""Make a request to the NWS API with proper error handling."""
    headers ={
        "User-Agent": USER_AGENT,
        "Accept":"application/geo+json"
     }
    async with httpx.AsyncClient()as client:
         try:
            response =await client.get(url, headers=headers, timeout=30.0)
            response.raise_for_status()
            return response.json()
         except Exception:
             returnNone

def format_alert(feature: dict)->str:
"""Format an alert feature into a readable string."""
    props = feature["properties"]
    return f"""
Event: {props.get('event''Unknown')}
Area: {props.get('areaDesc''Unknown')}
Severity: {props.get('severity''Unknown')}
Description: {props.get('description''No description available')}
Instructions: {props.get('instruction''No specific instructions provided')}
"""

定义了2个工具函数,通过添加装饰器让Client知道该函数是工具,可以进行调用。

@mcp.tool()
async def get_alerts(state: str)->str:
"""Get weather alerts for a US state.

    Args:
        state: Two-letter US state code (e.g. CA, NY)
    """

    url =f"{NWS_API_BASE}/alerts/active/area/{state}"
    data await make_nws_request(url)

    if not data or "features" not in data:
        return "Unable to fetch alerts or no alerts found."

    if not data["features"]:
        return"No active alerts for this state."

    alerts =[format_alert(feature)for feature in data["features"]]
    return"\n---\n".join(alerts)

@mcp.tool()
async def get_forecast(latitude: float, longitude: float)->str:
"""Get weather forecast for a location.

    Args:
        latitude: Latitude of the location
        longitude: Longitude of the location
    """

# First get the forecast grid endpoint
    points_url =f"{NWS_API_BASE}/points/{latitude},{longitude}"
    points_data =await make_nws_request(points_url)

    if not points_data:
        return"Unable to fetch forecast data for this location."

# Get the forecast URL from the points response
    forecast_url = points_data["properties"]["forecast"]
    forecast_data =await make_nws_request(forecast_url)

    if not forecast_data:
        return"Unable to fetch detailed forecast."

# Format the periods into a readable forecast
    periods = forecast_data["properties"]["periods"]
    forecasts =[]
    for period in periods[:5]:# Only show next 5 periods
        forecast =f"""
{period['name']}:
Temperature: {period['temperature']}°{period['temperatureUnit']}
Wind: {period['windSpeed']} {period['windDirection']}
Forecast: {period['detailedForecast']}
"""

        forecasts.append(forecast)

     return"\n---\n".join(forecasts)


好用的MCP推荐

MCP Server:

https://github.com/punkpeye/awesome-mcp-servers/

MCP Client:

https://github.com/punkpeye/awesome-mcp-clients/

也可以在glama中根据条件筛选:

https://glama.ai/mcp/servers

glama.PNG

总结

MCP的出现,对于整个AI生态都起到了促进作用:

普通用户只需要关注自己需要什么样的插件,然后去找,并且安装到自己的Cursor等AI 应用上即可使用; 开发者根据自身项目需要,可以通过引入优秀的MCP Server来减少开发的工作量,也可以把重复实现的功能作为MCP Server进行开发,进而实现多项目复用。

不过,Claude模型及其桌面端在国内均无法直接使用,需要外国手机号才能注册,并且经常有被Ban的风险;而Cursor在Agent模式下才能使用MCP Server,普通Chat模式是不含该功能的,并且Agent模式在免费版下每个月仅有一定额度。这也只能寄希望于开源社区涌现出更多优秀的项目,才能发挥出MCP生态的影响。





你好,我是William,一名喜欢折腾的程序员。曾担任大厂算法工程师,现在初创公司做AI应用全栈开发。

工作内容与兴趣点集中于大模型、RAG、文档处理等方向,平常也会介绍相关的开源工作,欢迎围观。

如果本文对您有帮助,可以来个点赞在看关注给公众号添加【星标⭐】




53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询