微信扫码
添加专属顾问
我要投稿
AI产品经理深入探讨MCP协议,揭示标准化如何赋能AI产品开发与协作。核心内容:1. 标准化的必要性:避免重复造轮子,扩展模型能力边界2. 标准化协议如何提升AI工作流稳定性与可靠性3. 标准化如何提升AI产品开发效率,节省开发成本
前文链接:MCP协议(1):预见MCP——我的“万能库”与标准化之路" data-itemshowtype="0" target="_blank" linktype="text" data-linktype="2">AI产品经理思考MCP协议(1):预见MCP——我的“万能库”与标准化之路
现在我们已经知道了标准化的可行性。但这自然引出了一个更深层的问题:标准化,真的有必要吗?我们是不是在重复造轮子?
大语言模型本身是一个大脑,它没有“手”与物理世界或复杂的数字系统直接交互。没有外部工具和标准化的接口,LLM 很大程度上只能停留在“聊天机器人”的层面。
要实现更强大的 Agent 功能(即能自主规划并执行任务的 AI),模型需要与外部世界互动。目前常见的方式有:
LLM 的一个固有特性是其输出具有一定的随机性。即使我们用提示词工程技巧限制、调整温度系数,也很难保证模型每次都输出完全一致且格式绝对精确的结果。
这在简单对话中或许问题不大,但在以下场景中则可能是致命的:
使用定义好的 JSON 结构进行数据交换,就像给模型输出加了一道强制限制。 它确保了无论模型内部如何“思考”,最终与其他模块或系统交互时,都能遵循统一、可靠的格式规范,从而显著提升整个 AI 应用或工作流的稳定性和可靠性。 (关于这一点,我后续会专门写文章探讨如何提升模型输出稳定性的具体方法)
当输入、处理、输出模块都遵循标准接口(如统一使用 JSON 交互)模块化后,每一部分的实现逻辑是相互独立的。开发者可以将精力聚焦在核心业务逻辑(主要是 Prompt 设计和模型选择)上。想换个大模型?只需替换“处理”模块,无需改动前后端任何代码。想增加一种输出格式?添加一个符合标准的“输出”模块即可,前面两个阶段都不需要任何变动。
在内部的“万能库”实践中,这种模式平均能节省约 70% 的 AI 功能开发和实验时间。
没错,可以提升模型性能。
最近很流行“Vibe Coding”的概念(用 AI 辅助编程),但让 AI 从零开始构建整个应用(尤其是涉及前后端分离、微服务等复杂架构时)往往容易“翻车”。我用 Cursor+Claude 从零生成前后端分离应用,十次有九次跑不起来。此外,对于不会编程的用户(零知识用户)来说,他们并不知道大模型开发时的架构选择是否合理。我的亲身体会如下:即使我跟claude说用单机部署,架构越简单越好,他依然会给我使用FastAPI+Vue的架构)。但是他自己又不一定能跑起来,靠自己debug也debug不明白。
标准化、模块化的组件是可沉淀、可积累、可复用的资产。这与那种认为“AI 产品代码是快速迭代、用后即抛”的观点不同。尤其当 AI 需要与企业现有系统(非 AI 部分)稳定对接时,健壮、可维护、可复用的代码组件是必需品。
换句话说,如果ai每次自己生成的代码不能保证100%的稳定性,那为什么不提前生成组件让他组合呢?
实际工作中发现,大部分情况下模型的整体思路实现没有问题,但是具体的细节经常会出错。当你对他屏蔽细节之后,他的性能会有效提升。
我是阿茶,一个AI产品经理,目前正在寻找新的工作机会,Base北京。
如果你对我感兴趣或者对我写的内容感兴趣欢迎私聊我啊!!!!!!
我的个人主页如下
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-25
OpenAI 白送 200 美元的深度研究功能?实测后发现这个「阉割版」不如不用
2025-04-25
为什么一定要做Agent智能体?
2025-04-25
哇!首个MCPBench来了,MCP竟然不比Function Calls更有优势? | 最新
2025-04-25
医疗大模型案例分析(一):Google Med-PaLM
2025-04-25
vLLM+Qwen-32B+Open Web UI构建本地私有大模型
2025-04-25
AI产品经理思考MCP(3):MCP的未来可能
2025-04-25
AI产品经理思考MCP协议(1):预见MCP——我的“万能库”与标准化之路
2025-04-24
温度参数:调节AI输出的确定性与创造性平衡
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17