微信扫码
添加专属顾问
我要投稿
掌握MCP,让AI代理成为你的超级助手! 核心内容: 1. Model Context Protocol (MCP) 的概念与优势 2. 详细步骤:将Cursor连接到100多个MCP服务器 3. 实际案例展示MCP的强大功能
今天和大家讲一下2025年最火的新趋势——Model Context Protocol (MCP)。它不仅让工作流的扩展变得更加简单,还解锁了许多强大的使用场景。今天,我们将学习如何将Cursor连接到100多个MCP服务器,并在文章最后分享一些超酷的例子。话不多说,直接开讲!
我们会详细讲以下几个主题:
为了方便演示,我会用Composio提供的MCP服务器,因为它自带认证,还有完全托管的服务器,省心又好用。
Model Context Protocol (MCP) 是一种全新的开放协议,旨在标准化应用程序如何为LLM提供上下文和工具。你可以把它想象成一个“万能插头”,专门为AI设计。通过MCP,Cursor可以像插件系统一样扩展Agent的功能,连接各种数据源和工具。
举个例子,一个为Obsidian设计的MCP服务器可以让AI助手搜索并读取你的Obsidian笔记库。这样一来,你的AI代理就可以做到:
所有这些操作都可以在一个自然对话中完成。
想想这对生产力意味着什么?以前需要在5个应用之间来回切换的任务,现在只需要和AI代理聊聊天就能搞定。
MCP的核心是一个客户端-服务器架构,允许主机应用连接到多个服务器。
很多人对MCP有些误解,这里我来澄清一下:
❌ 不能替代API:MCP可以用API,但它是一个标准化的接口,而不是特定API功能的替代品。
❌ 并不复杂:开发者可以通过简单的协议创建MCP服务器,网上也有很多模板和教程。
❌ 不是数据库:MCP服务器不直接存储数据,而是充当桥梁。
当然,MCP不仅限于远程服务器,你也可以在本地运行。
接下来,我们聊聊如何把Cursor和MCP服务器连起来。如果你想自己研究如何添加和使用自定义MCP服务器,可以参考官方文档https://docs.cursor.com/context/model-context-protocol 。
首先,确保你已经安装了Node.js,并且npx
命令可以在系统中正常运行。
打开Cursor的命令面板(快捷键Ctrl + Shift + P
),搜索Cursor设置。
你会在侧边栏找到MCP选项。
虽然我们可以从零开始创建一个MCP服务器,但为了简单起见,我们先用现成的。比如Composio提供的服务器,支持Claude和Cursor作为MCP主机,地址是mcp.composio.dev。
⚡ 自带认证:支持OAuth、API密钥、JWT和Basic Auth,无需自己搭建登录系统。
⚡ 托管服务器:消除了复杂的设置过程,轻松将AI代理与Gmail、Slack、Notion等工具集成。
⚡ 更高的工具调用准确性:AI代理可以流畅地与集成的应用程序交互。
你可以轻松集成许多有用的MCP服务器,而不用写一行代码。
每个选项都会显示活跃用户数、当前版本、最近更新时间以及可用的操作。你还可以选择Claude(MacOS)、Windsurf(MacOS)、TypeScript或Python进行集成。
我选择Composio的原因很简单: ⚡ 托管服务器自带认证(如上所述)。
⚡ 支持250+工具,比如Slack、Notion、Gmail、Linear和Salesforce。
⚡ 提供20,000+预构建的API操作,快速集成无需写代码。
⚡ 可以根据需求选择本地或远程运行。
⚡ 兼容AI代理,能在一个对话中完成发邮件、创建任务、管理工单等操作。
如果你想从零开始创建MCP服务器,也可以试试这个(TypeScript SDK)。你需要先安装SDK包:
npm install @modelcontextprotocol/sdk
以下是一个简单的MCP服务器示例代码,它暴露了一个计算器工具和一些数据:
import { McpServer, ResourceTemplate } from"@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from"@modelcontextprotocol/sdk/server/stdio.js";
import { z } from"zod";
// 创建一个MCP服务器
const server = new McpServer({
name: "Demo",
version: "1.0.0"
});
// 添加一个加法工具
server.tool("add",
{ a: z.number(), b: z.number() },
async ({ a, b }) => ({
content: [{ type: "text", text: String(a + b) }]
})
);
// 添加一个动态问候资源
server.resource(
"greeting",
new ResourceTemplate("greeting://{name}", { list: undefined }),
async (uri, { name }) => ({
contents: [{
uri: uri.href,
text: `Hello, ${name}!`
}]
})
);
// 开始接收消息并通过stdout发送消息
const transport = new StdioServerTransport();
await server.connect(transport);
以下是理解这段代码的一些核心概念: ⚡ Server:McpServer是与MCP协议交互的核心接口,负责连接管理、协议合规和消息路由。
⚡ Resources:类似于REST API中的GET端点,用于向LLM暴露数据。
⚡ Tools:允许LLM通过服务器执行操作,通常带有副作用。
⚡ Prompts:可重用的模板,帮助LLM轻松与服务器交互。
你可以通过stdio
(适用于命令行工具或直接集成)或HTTP with SSE
(适用于远程服务器)运行你的服务器。
在MCP的官网上,你可以找到TypeScript SDK、Python SDK、Java SDK和Kotlin SDK。访问仓库后,readme文件里会有所有必要信息。
如果你想找一篇好文章,推荐看看MCP服务器:从零开始的完整指南 https://composio.dev/blog/mcp-server-step-by-step-guide-to-building-from-scrtch/ 。
是时候把MCP服务器整合进Cursor了!这次我们用Hackernews的MCP服务器为例。如果你不知道Hacker News是什么,它是由Y Combinator运营的一个技术新闻聚合平台,上面有用户提交的故事和关于创业、编程、项目的讨论。
前几天,Cursor刚刚修改了这个方法。为了避免混淆,我会分别介绍新旧两种方式。
新版方法
我们需要生成一个终端命令。访问https://mcp.composio.dev/hackernews/thundering-petite-vulture-guyWBb生成你的命令。它看起来会像这样:
npx @composio/mcp@latest setup "https://mcp.composio.dev/hackernews/xyzxyz..." --client cursor
你可以根据使用场景将配置放在两个位置之一:
.cursor/mcp.json
文件。这会让MCP服务器仅在该项目中可用。\~/.cursor/mcp.json
文件。这会让MCP服务器在所有Cursor工作区中都可用。成功集成后,你会看到必要的操作和绿色状态点。
以下是JSON数据文件的样子(SSE、Python CLI、Node.js CLI顺序):
// 这个例子展示了使用SSE格式的MCP服务器
// 用户需要手动设置并运行服务器
// 它可以联网,允许其他人访问
{"mcpServers":{"server-name":{"url":"http://localhost:3000/sse","env":{"API_KEY":"value"}}}}
// 如果你使用的是CLI Python服务器
// 这个例子展示了使用stdio格式的MCP服务器
// Cursor会自动为你运行这个进程
// 使用Python服务器,通过`python`运行
{"mcpServers":{"server-name":{"command":"python","args":["mcp-server.py"],"env":{"API_KEY":"value"}}}}
// 如果你使用的是CLI Node.js服务器
// 这个例子展示了使用stdio格式的MCP服务器
// Cursor会自动为你运行这个进程
// 使用Node.js服务器,通过`npx`运行
{"mcpServers":{"server-name":{"command":"npx","args":["-y","mcp-server"],"env":{"API_KEY":"value"}}}}
你可以查看示例服务器和实现列表。
旧版方法
我们需要生成一个安全的MCP URL。访问https://mcp.composio.dev/hackernews/thundering-petite-vulture-guyWBb生成你的URL。确保选择sse
类型,这样你就可以插入服务器URL。
成功集成后,你会看到必要的操作和绿色状态点。
你可以通过Ctrl + I
打开聊天窗口,然后问一些与Hackernews相关的问题,比如“找一下今天的Hackernews热门帖子”。
新版界面
旧版界面
可以看到,它会根据你的提示调用合适的MCP服务器,并执行正确的操作。点击确认后生成响应。由于没有帖子达到100分(热门帖子的标准),我尝试了另一个提示,获取最新的10个帖子。
恭喜!? 就这么简单!用你喜欢的MCP服务器就这么容易。Hackernews只是个简单的例子,如果是GitHub这种需要个人令牌的服务,你需要稍微详细一点的提示,比如“创建一个名为composio mcp的新仓库,并添加一个简短的README,介绍MCP服务器”。
现在我们已经知道如何将MCP服务器集成到Cursor中了。接下来,我们来看看一些实际的例子。
利用MCP,你能打造很多创新的东西,下面是一些特别突出的例子。部分案例还附带源码(GitHub仓库)。
https://github.com/ahujasid/blender-mcp
这个项目通过MCP将Blender与Claude AI连接起来,让Claude可以直接与Blender互动并控制它。这种集成为3D建模、场景创建和操作提供了提示辅助。
比如,Siddharth(项目作者)生成了一个“低多边形龙守护宝藏”的3D场景,而他本人并没有直接参与制作。你可以查看GitHub仓库,目前已经有6.9k星。
https://mcp.composio.dev/linkedin/old-damaged-thailand-X5G8GA
将这个服务器添加到Cursor的MCP服务器列表后,你会看到很多选项。不过,有些操作需要先建立连接,以免输入响应过载。
你可以简单地通过复制OAuth URL到浏览器完成认证。
完成后你会收到确认消息。
你也可以根据服务器的动作检查是否有活跃连接。
我不太建议在官方账号上使用它,毕竟小心为上。我还测试过一些其他MCP服务器,比如DocuSign(电子签名)、Cal.com(日历连接)、Notion(获取页面内容)等等。
大部分都很简单。下一个例子,我们会尝试更复杂的东西。
尽管已经有了很多现成的MCP服务器,你可能会觉得没必要再创造新的东西。但我们来聊一个可能比较复杂的点子。
假设你是个新手,想改进Cursor中关于Python SDK文档的上下文,可以从官方MCP仓库入手。
在Cursor设置中,你会在侧边栏找到“Features”。在它的下方,你会看到文档部分。
接着,将README链接添加到这里,并赋予一个合适的名称。
成功添加后,你会看到如下效果。
现在,你可以将这些文档添加为Agent聊天中的上下文。
如果你想进一步提升文档的可访问性,可以试试Gitingest。它能帮你将文档转换为LLM可读的数据。只需将GitHub URL中的hub
替换为ingest
即可。
接着,使用Crawl4AI——一个开源的、对LLM友好的网页爬虫和抓取工具。它在GitHub上有33k+星。
在继续之前,请确保已通过pip install mcp
安装了MCP依赖项。然后,你可以通过以下命令安装crawl4ai包:
pip install -U crawl4ai
# 运行安装后的设置
crawl4ai-setup
你可以通过crawl4ai-doctor
验证安装是否成功。
创建一个server.py
文件,并根据文档添加相应的代码:
import asyncio
from crawl4ai import *
async def main():
async with AsyncWebCrawler() as crawler:
result = await crawler.arun(
url="https://www.nbcnews.com/business",
)
print(result.markdown)
if __name__ == "__main__":
asyncio.run(main())
你可以将这个服务器安装到Claude Desktop中,运行mcp install server.py
后立即与之交互。更多细节可以参考文档。
Crawl4AI还有很多高级功能,比如隐身模式和基于标签的内容提取,具体可以查看readme。
运行类似crawl http://cursor.com and give me all of its sections
的指令时,你会发现它并没有给出网站的官方结构,而是直接提供内容。有一个新仓库专门针对这个用例,Hossein on X也分享了一个类似的项目。有兴趣的话可以去看看!
你可以根据Crawl4AI的文档调整代码。由于Python文档有了额外的上下文,这个流程实际上可以帮助你更准确地克隆网站的着陆页。
这就是这个工作流的深度所在。
可以说,使用MCP服务器在Cursor中并不复杂。一次与Agent的对话就能帮你自动化复杂的流程。
- END -53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-19
LoRA 与QLoRA区别
2025-04-18
DeepSeek-V3-0324 本地部署,vLLM和SGLang的方法
2025-04-18
Ollama对决vLLM:DEEPSEEK部署神器选谁?90%人选错!这份实测攻略让你秒懂!
2025-04-18
ollama v0.6.6 震撼发布!推理能力翻倍、下载提速 50%,对比 vLLM/LMDeploy 谁更强
2025-04-17
从零开始开发 MCP Server
2025-04-17
AI 应用开发不要在大模型迭代必经之路上
2025-04-17
阿里百炼出手了!MCP 现在配置门槛下降了 100 倍
2025-04-17
突发!OpenAI推出API组织验证:不验证就不让用最新模型
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-01
2025-03-31
2025-03-20
2025-03-16
2025-03-16
2025-03-13
2025-03-13
2025-03-11