微信扫码
添加专属顾问
我要投稿
AI产品经理深度解析MCP协议,揭示AI应用标准化的未来趋势。核心内容:1. MCP协议的背景与核心价值2. AI产品经理视角下的“万能库”实践3. MCP标准化对AI应用流程的影响
MCP(Model Context Protocol)火了。这个 Anthropic 提出,旨在统一大模型(LLM)调用外部数据和工具方式的开放协议,在 OpenAI 官宣支持之后正成为新的行业标准,同样也成为了热点话题。
按照官方的解释:模型上下文协议(MCP)是Anthropic推出的一项开放标准,旨在标准化人工智能应用程序(聊天机器人、IDE助手或自定义代理)如何与外部工具、数据源和系统连接。
对于MCP的解读很多,但我感觉都太浅了。MCP 究竟要解决什么问题?和 Function Call 有什么区别?为什么它如此重要?我很少看到有人讲。这篇文章或许能给你一些启示。不同于纯技术解读,我将以 AI 产品经理的身份,结合我过去半年打造过的类似框架——“万能库”实践经验,来探讨 MCP 的价值。
在我看来,MCP 的核心在于“标准化”。这个系列文章将围绕以下几点展开:
让我们一起从我之前的实践经验来理解 MCP 为什么会出现。
在讲 MCP 之前,我想先分享一个我过去大半年一直在思考和实践的概念——我称之为“万能库”(OmniLab)。在我们内部的测试中,显著降低了工作量(降低了70%的重复工作量),加快了实验效率。
这个想法源于去年夏天。那段时间,我密集地拆解分析了市面上形形色色的 AI 产品。拆得多了以后突然发现:无论产品形态多么不同,其底层逻辑是一样的,本质上都是利用大模型(LLM)来响应和满足用户的特定需求。
而且几乎所有的 AI 应用流程,都可以被简化、抽象为三个核心阶段:
“输入 - 处理 - 输出”。
我们来看几个看似截然不同的AI产品:AI智能写作、AI智能会议纪要、AI智能剪辑
我当时分析了至少十几个产品,从常见的各种AI写作,再到Riffo、 DeepSearch...甚至概念类游戏(用户输入 -> LLM 处理 -> 游戏进展输出),都逃不开这个模式。
让我们来更严格的定义这三个阶段:
看清这个底层逻辑后,一个想法就会非常自然的涌现:既然底层实现是类似的,我们能不能把这些通用的功能模块“组件化”实现复用呢?
我们可以按照“输入-处理-输出”的思路,建立可复用的模块库:
想做 AI 会议纪要? 组合:语音转文本输入+(总结Prompt)大模型调用+文本输出即可。
想做 AI 智能写作? 组合:文本输入+(写作Prompt)大模型调用+Word文档生成器即可。未来想做AI智能写作的细化产品比如AI 公文写作 或 AI 论文助手? 只需复用现有模块,调整“处理”环节的 Prompt即可。这种“组装”模式极大地提升了开发效率和实验速度。
我当即利用我的框架重写了我之前写的所有demo。在核心功能上,最快几分钟就能调通,然后简单包装一下前端页面,就能快速进行测试验证。
import asyncio
from omni_lab.inputs.text import TextInput
from omni_lab.processor.minimax import MiniMaxProcessor
from omni_lab.outputs.excel import ExcelOutput
from omni_lab.prompts.manager import PromptManager
# 您的 API key
api_key = ''#
async defmain():
# 初始化各个组件
input_data = "balabala"# 输入数据
text_input = TextInput(input_data=input_data)
prompt_manager = PromptManager()
system_prompt = prompt_manager.get("minimax.excel_system_prompt").format() #提示词装载
processor = MiniMaxProcessor(api_key=api_key, system_prompt=system_prompt)
excel_output = ExcelOutput(output_path='')
pipeline = MiniMaxPipeline(
text_input,
processor,
excel_output
)
# # 使用 pipeline 处理数据
result = await pipeline.process()
(omnilab的quickstart文档)
然而要让这些独立的模块能够顺畅地拼在一起,一个关键前提必须满足:标准化。模块之间需要用约定好的格式来传递数据。输入模块处理完的数据,需要以处理模块能理解的方式传入;处理模块生成的结果,也需要以输出模块能接收的方式传出,所以当时,我自然而然地想到了使用JSON作为通用的数据交换格式。
如果你已经阅读到这里,相信你已经理解MCP出现的根本原因以及必要性了:我们真的在做大量重复且不必要的劳动,甚至还会降低性能!所以MCP尝试解决这个问题。按照MCP官方的解释,MCP提供了
再来看看MCP官方提供的图。相较于万能库,MCP并没有按照Input、Output的方式划分。而是将Input和Output统一变成MCP Server,负责给大模型提供MCP服务的部分。而大模型这部分变成了MCP Client,但本质上和万能库是一样的逻辑,标准接口,快速拼接。
这样的好处可太大了,比如说,一个网页提取的功能,如果做成MCP工具,所有支持MCP的大模型都可以直接调用,所有人都不需要在再重新写这个功能了......而且有专人在优化这个模块。
现在我们已经知道了标准化的可行性。但这自然引出了一个更深层的问题:标准化,真的有必要吗?我们是不是在重复造轮子?
关于这个问题,我们明天继续讲。
你好,我是阿茶。一个有技术背景的AI产品经理,目前Base北京,正在看新的工作机会。
在大模型方向上,对Prompt、RAG、大模型评估这些方面都有比较深入的了解。熟悉模型训练流程与底层算法基础。这使我能高效地理解AI的能力以及边界,同时可以借助AI Coding工具快速进行原型验证。此外,我也会关注偏宏观的领域洞察。
如果你对我感兴趣或者对我写的内容感兴趣欢迎私聊我啊!!!!!!
我的个人主页如下,里面有这篇文章的完整版。
https://www.yuque.com/u53043792/xs84qm/kv170g4erfaxl9qn?singleDoc我的二维码
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-25
OpenAI 白送 200 美元的深度研究功能?实测后发现这个「阉割版」不如不用
2025-04-25
为什么一定要做Agent智能体?
2025-04-25
哇!首个MCPBench来了,MCP竟然不比Function Calls更有优势? | 最新
2025-04-25
医疗大模型案例分析(一):Google Med-PaLM
2025-04-25
vLLM+Qwen-32B+Open Web UI构建本地私有大模型
2025-04-25
AI产品经理思考MCP(3):MCP的未来可能
2025-04-25
AI产品经理思考MCP协议(2):标准化的必要性
2025-04-24
温度参数:调节AI输出的确定性与创造性平衡
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17