支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


AI 写代码总是翻车?Upstash 创始人怒推 Context7:给 LLM 喂上最新鲜的官方文档。

发布日期:2025-04-27 00:00:43 浏览次数: 1526 作者:AI进修生
推荐语

Upstash 创始人力荐的 AI 编程助手 Context7,让你的代码编写不再翻车。

核心内容:
1. AI 编程助手在新库使用中的挑战与痛点
2. Context7 提供的最新、结构化官方文档上下文
3. Context7 的核心优势:精准过滤、去伪存真,提升 AI 编码能力

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

Insight Daily ?

Aitrainee | 公众号:AI进修生

Hi,这里是Aitrainee,欢迎阅读本期新文章。

Upstash 联合创始人 Enes Akar 亲自下场安利自家新工具 Context7。

他吐槽说,过去一年用 AI 编程助手写代码,感觉就像开盲盒——碰上模型训练截止日期前的老库还行,一用到新东西,AI 就开始瞎编 API、生成一堆跑不起来的破代码。

就算你把新库的文档复制给 AI,效果也一般:文档太臃肿,容易超 Token 限制,还得一页页喂,AI 根本抓不住重点。

比如 Claude 3.5 可能根本不懂最新的 Next.js 15,给的 CDN 链接也可能是过时的,你让它修它也懵圈,因为它压根就没学过新的写法。


解决方案:Context7 闪亮登场。这玩意儿就是给你的 AI 编程助手 (任何 LLM 或 AI 代码编辑器都行) 提永远最新、还区分版本的官方文档上下文。

他们把市面上超多库 (现在已经索引了 3500 多个) 的官方文档都扒下来,整理好,结构化了。

简单理解,就是搞了个专门搜文档的 RAG。你问问题,它就从这些文档里捞相关的片段给你,还能限制返回多少字 (token)。


这是一个能让你的 AI 编程能力更上一层楼的MCP服务器。

AI编码的一个痛点:模型知识库更新不及时,尤其在前端这种“月抛型”技术栈里特别难受。虽然 Cursor 自带文档索引功能,但效果差点意思,还得手动提醒它用。


Context7 的核心武器:

  • 只喂干货: 从官方文档里提取出真正能跑的代码片段。

  • 精准过滤: 按库的版本过滤,确保信息准确。

  • 去伪存真: 用自研的排序算法,只给你最相关的、最简洁的信息,没有废话。

效果拔群,不管是像 Next.js 这种更新狂魔,还是那些 LLM 根本没学过的小众库,Context7 都能搞定。适合跟 Next.js、React、Tailwind 这些更新贼快的框架打交道。

社区有许多人在制作有关 Context7 的视频。

▼ 解决AI编码的最大问题之一:Context7 MCP 使你的 AI 能够访问当前文档,而不是过时的训练。

不想用 Context7 MCP?去他们网站:context7.com,也能手动搜每个框架最新的文档。
这个网站提供了各种技术栈的 LLM.txt 格式文档,专为面向 AI 阅读而建立。

覆盖了所有主流库,比如 Next.js, Clerk, MongoDB, Upstash, Fast API 等等,不光是 Web 开发,只要有代码文档就能加。


在 MCP 里,Context7 提供俩工具:

  • resolve_library_id: 帮你从模糊的搜索词(比如 "next router")找到精确的库名 ID。

  • get_library_docs: 用上面找到的 ID,把对应的文档内容抓给你。

比如 OpenAI 上个月刚出的 Agents SDK,现在这些大模型肯定两眼一抹黑。你可以让 AI “请教” Context7,先用 resolve 找到 openai-agents 这个 ID,再用 get 把文档拿过来。AI 看了文档,果然就能写出正确的代码了。

我这里只是描述这个过程,实际操作。因为是agent的调用mcp它都是自动完成的,你需要做的只是提供需求而已。比如告诉他使用Context7。


我这里在开发一个吉卜力风格的博客网站的时候用到了。Context7 和 sequentialThinking

某些中间过程,给Cursor的提示如下

“ 请在以下事项中使用我的两个 MCPs:

1. Sequential Thinking MCP(序列性思考 MCP) —— 用于规划每一个步骤,并确保我们在执行过程中彻底而最大化地完成这一流程。
2. Context7 MCP —— 在进行研究期间,以及在实施任何新的第三方 API或修改项目结构或进行任何变更之前,
你必须首先阅读关于该事项的最新官方文档。
这一点极其重要,绝对不可以忽视。
无论何时,你都必须始终查阅最新文档,因为自从你接受训练以来,某些内容可能已经发生了变化。”

Sequential Thinking 确保编码的路径、思维是正确的,

Context7 确保使用的框架和api是最新的正确的。


另外一个例子:

让 Cursor 用 Next.js 15.3 里新出的事件处理器 onNavigate 写个例子。用Claude 3.5 ,这模型肯定不知道最新的 Next.js 更新。

就算明确在 Prompt 里要求用 onNavigate,并且 @ 了Next.js 的官方文档 (这文档早就更新了 onNavigate 的用法),结果 Cursor 生成的代码虽然“能用”,但压根没用 想要的那个新 onNavigate 处理器,还是老一套 onClick 的写法。

换上 Context 7 再试试:
这次,不用 Cursor 自带的 @ 文档功能了,直接在 Prompt 里加了句 use context 7

结果立竿见影:

  • Cursor 生成的代码完美使用了最新的 onNavigate 事件处理器

  • 用的还是那个不知道新库的 Claude 3.5 Sonnet 模型。

  • 代码质量几乎和官方文档示例一模一样。


官方例子:获取错误或过时的代码示例
要求 claude-3.7-sonnet(最新、功能最强大的 AI 编码助手之一)编写一个可能尚未经过训练的 @upstash/redis 命令。即使在明确提及 linter 错误之后,该模型也无法生成正确的代码。

从 Context7 复制文档

我们选择 Upstash Redis 作为我们想要搜索的库(选择您喜欢的任何库 — 例如 Next.js、React 等),输入 stream trim 作为我们的搜索词,然后复制链接。

粘贴到光标中

获得正确代码

么工作的?

   底层原理类似 RAG (检索增强生成)
  1. 当你向 AI 助手提问,涉及到某个库时,助手会先调用 Context7 的 resolve_library_ID 工具,根据你的模糊描述 (比如 "nextjs middleware") 找到准确的库 ID (比如 "nextjs-15")。

  2. 然后,再调用 get_library_docs 工具,传入准确的库 ID 和你的具体问题 (比如 "how to use middleware"),Context7 就会在对应的文档里进行向量搜索,把最相关的文档片段作为上下文返回给 AI 助手。

  3. AI 助手拿到最新的官方文档片段后,就能生成更准确、更符合当前版本的代码了。

技术拆解

  1. 解析 (Parse): 从文档里扒拉代码片段和示例。

  2. 丰富 (Enrich): 用 LLM 加点简短解释和元数据。

  3. 向量化 (Vectorize): 把内容 Embedding,方便语义搜索。

  4. 重排序 (Rerank): 用自研算法给结果排序,确保相关性。

  5. 缓存 (Cache): 用自家 Upstash Redis 缓存请求,保证速度。

结果就是: 输出准确的代码示例,让 Cursor, Claude 这些 LLM 能生成正确、高质量的代码。

最香的部分:免费。
Context7 是 Upstash 团队做的,跑在自家基建上。所以他们决定对个人和教育用途免费开放。目的就是帮开发者省时间,提升 AI 代码输出质量。


给库作者的福利:给你的库也搞个 llms.txt
你可以把 llms.txt 理解成给 LLM 看的 robots.txtrobots.txt 告诉爬虫啥能看,llms.txt 则给 LLM 提供优化过的、预处理好的文档摘要。

Context7 会自动给开源库生成这种可搜索的 llms.txt 文件。库作者也可以去 context7.com/add-package 提交自己的项目,或者直接在 GitHub 上提 PR。几分钟就能搞定。

小科普:助手 (Assistants) vs 代理 (Agents)
作者提到,虽然经常混用,但两者有区别:

  • 助手 (如 Cursor, Copilot): 你还是主力,它们帮你写得更快。

  • 代理 (如 V0, Replit): 直接帮你写整个应用或组件。

  • (像 Cursor 和 Windsurf 这种是混合模式)
    新手或非技术人员可能更喜欢 Agent,中高级开发者用 Assistant 更能掌控全局。

为啥 Context7 和 Cursor/Windsurf 是绝配?
Context7 就是为 Cursor, Windsurf 这类 AI-First 的编辑器设计的。它们都允许用户直接把外部上下文塞进聊天或代码补全里。有了 Context7,你就能把最新、最准、去除了噪音的官方代码片段喂给它们,等于给 AI 配了副“最新款眼镜”。

未来路线图 (Roadmap):

  • API/SDK,方便开发者接入。

  • 支持老版本库和私有库。

  • 代码片段搜索和多库支持。

  • 按语言 (Python, JS 等) 过滤。

一起搞事:
Context7 刚上线,欢迎大家去 context7@upstash.com 或 GitHub 提意见。

总而言之,Context7 通过提供精准、最新、区分版本的官方代码示例作为上下文,解决了 LLM 和 AI 编程助手因知识库陈旧而导致的“代码幻觉”和低效问题,尤其对于快速迭代的技术栈和新库、小众库效果显著。而且它还免费。


总结一下 Context7 的牛逼之处:

  • ✅ 文档永远最新,还分版本。

  • ✅ 代码示例来自官方源码,保证能跑。

  • ✅ 信息简洁、相关,没有废话填充。

  • ✅ 个人使用免费

  • ✅ 支持 MCP (模型上下文协议) 集成。


当然,Context7 也不是万能的:

  • 它不会帮你 总结 文档重点,只会原文照搬(或者截取)。

  • 像 CDN 路径这种通常不在文档核心内容里的信息,它可能还是会 “幻觉” 出错。

怎么装?简单。

去他们 GitHub 页面,复制代码块,粘贴到 Cline 或 RooCode 的 MCP 配置文件里,重启下工具就好了。

https://github.com/upstash/context7


安装这里,我们可能还要区分一下:

1、Windows 的 Cursor
以前许多文章都说过。公众号后台回复“windows”。
Windows下MCP报错的救星来了,1分钟教你完美解决Cursor配置问题。
2、Windows 的 Cline
大多数人遇到的情况应该是直接点击。安装会失败。
所以你先把Windows Cursor中安装好,然后把mcp.json文件一股脑复制到Cline中即可
Cline 配置文件在这:C:\Users\Aitrainee\AppData\Roaming\Cursor\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
这样就能正常了:
Mac Cursor,看 https://github.com/upstash/context7?tab=readme-ov-file,Cusor中这样配置即可
{  "mcpServers": {    "context7": {      "command""npx",      "args": ["-y""@upstash/context7-mcp@latest"]    }  }}
Mac Cline:

直接点击mcp市场安装按钮即可。


总的来说:
Context7 对付那些主流、文档写得好的库(像 Next.js, Three.js 这些)效果拔群。你可以把它跟你现有的搜索类 MCP 工具(比如 Search MCP)搭配着用。Upstash 出品,速度有保障。算是给你的 AI 助手又加了个靠谱的 “外挂知识库”。

Upstash 是一个Serverless 数据平台,提供了开箱即用的Redis 和Kafka 数据服务,让用户能够方便地在云环境中集成使用。


关于Context7的更多实际相关用例&提示词,我会继续更新在知识星球中。

以上。
One More Thing

本号知识星球(汇集ALL订阅频道合集和其他):

图片

星球里可获取更多AI实践和资讯:

图片

本号连载过许多MCP的文章,从概念到实践再到自己构建:

MCP是什么Windsurf Wave3:MCP协议让AI直接读取控制台错误,自动化网页调试不用复制粘贴了!Tab智能跳转、Turbo模式。
Cline的MCP商店来了。
MCP怎么配置、报错解决Windows下MCP报错的救星来了,1分钟教你完美解决Cursor配置问题。
图片

MCP实践:Cursor + MCP:效率狂飙!一键克隆网站、自动调试错误,社区:每个人都在谈论MCP!

最新MCP托管平台:让Cursor秒变数据库专家,一键对接Github,开发效率暴增!

Blender + MCP 从入门到实践:安装、配置、插件、渲染与快捷键一文搞定!

比Playwright更高效!BrowserTools MCP 让Cursor直接控制当前浏览器,AI调试+SEO审计效率狂飙!

手把手教你配置BrowserTools MCP,Windows 和 Mac全流程,关键命令别忽略。

2分钟构建自己的MCP服务器,从算数到 Firecrawl MCP(手动挡 + AI档)

太简单了!Cline官方定义MCP开发流程,聊天式开发,让MCP搭建不再复杂。

? 知音难求,自我修炼亦艰,抓住前沿技术的机遇,与我们一起成为创新的超级个体(把握AIGC时代的个人力量)。

点这里?关注我,记得标星哦~

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询