微信扫码
添加专属顾问
我要投稿
探索AI技术在实际工作中的应用与挑战。 核心内容: 1. AI技术在日常工作中的实际应用模式 2. 运维中AI的辅助作用与实际案例 3. AI在信息处理和云服务中的创新应用
前两天刘老师吐了个槽,印象里是个问句:大家猜猜 KCD 为什么是 KCD?我觉得问得挺好的,所以作为 Kubernetes 老饼一张,我今天也来聊一点 AI 相关的事。
ChatGPT 横空出世之后,一直还是保持一点关注的,应该也交了几百刀的 AI 税了。除了聊天玩之外,也尝试使用流行的大模型解决一些实际问题,这一段时间以来,对于 AI 的有效使用大概归结成几种模式:
除了这些工具类的东西,我有没有真的把大模型的能力融入到我的实际业务之中呢?你别说还真有。
在运维现场,老师傅的最大价值之一就是:见多识广。然而在所有的主流大模型眼中,知名软件的日志信息毫无秘密可言。所以就随手写了个 Pipe2GPT 的小玩意,这东西现在一直在我的 Mac 和 Home Server 里呆着,随便遇到什么疑难 STDOUT/STDERR,Pipe 过去就行了。绝大多数情况下,能给出不弱于 StackOverflow 之类的结果,最重要的是说的的确是经过组织的人话,这点太重要了。
我有个工作流,效果是用广东话根据几个关键字生成童话故事,并使用方言 TTS 生成语音朗读给小朋友听——为保留粤语尽点绵薄之力?
其实跟翻译类似,让大模型的能力,对信息进行翻译和重整,使之生成新的信息模式,包括但不限于:
…
然而这蹭热度的过程中,一直有些粗糙的感觉,应用侧和模型侧始终是泾渭分明、各自为战。训练练不起,对接呢,因为个人架构能力有限,每次都会因为需求的微小差异,进行大量的代码调整。尤其是和一些商业数据系统对接时,缺乏最佳实践的指导,由此产生草台班子的感觉会让人非常受挫。
前不久看到了 Cloude MCP,感觉这高冷的大模型开始有味道了。总算可以有办法,将“传统”服务和系统,跟各种大模型能够相对规矩的对接起来。
MCP 是 Model Context Protocol 的缩写。官方简介称:
模型上下文协议(MCP)是一种开放式协议,可实现 LLM 应用程序与外部数据源和工具之间的无缝集成。无论您是要构建人工智能驱动的集成开发环境、增强聊天界面,还是要创建自定义的人工智能工作流,MCP 都能提供一种标准化的方式,将 LLM 与它们所需的上下文连接起来。
目前已经提供了 TypeScript、Python、Java 和 Kotlin 的 SDK。
官方提供的架构图如下所示:
从核心上讲,MCP 遵循客户端-服务器架构,其中主机应用程序可以连接到多个服务器:
flowchart LR subgraph "Your Computer" Host["MCP 客户端(Claude, IDEs, Tools)"] S1["MCP Server A"] S2["MCP Server B"] S3["MCP Server C"] Host <-->|"MCP Protocol"| S1 Host <-->|"MCP Protocol"| S2 Host <-->|"MCP Protocol"| S3 S1 <--> D1[("本地数据源 A")] S2 <--> D2[("本地数据源 B")] end subgraph "Internet" S3 <-->|"Web APIs"| D3[("远端服务 C")] end
从架构图中可以看到,MCP 定义了一种行为规范及其依赖的通信方式和对应的对象。LLM 客户端应用,作为 MCP Client,通过 MCP Server,和本地资源、外部服务连接起来,从而形成了完整的数据通路,让 MCP Server 所提供的数据和能力,直接在 LLM 客户端应用中得以使用。
MCP 中的核心概念包括用于描述原子能力的资源(Resource)和工具(Tool),用于复用提示词的(Prompt),以及能够控制文本生成的 Sampling 能力。除了这些能力之外,对于传输、安全、敏感信息等,也提出了相对完善的建议和最佳实践。因此虽然存在只能本地调用等短板,MCP 仍然不失为一个开拓 LLM 应用的一个非常有用的方向(不够好没关系,Who can who up 就是了)。
官网文档里提供了一个天气预报的 Sample,这个例子很典型:从外部服务获取实时信息作为上下文在 LLM 中进行使用。这个例子分为三个部分:
get_forcast
和 get_alert
两个 Tool例子中表达的主要“业务”就是在 LLM 中获取(美国)的天气信息,并结合 LLM 自有能力来响应用户需求。
App 属性窗口中,Developer Tab 直接编辑 Settings,加入如下定义就可以得到:
{ "mcpServers": { "weather": { "command": "uv", "args": [ "--directory", "/ABSOLUTE/PATH/TO/PARENT/FOLDER/weather", "run", "weather.py" ] } } }
启用 Server 之后,在 Cloude 聊天窗口输入框右下方会出现一个 ? 图标,点击后就可以展示当前启用 MCP Server 所提供的 Tools 了。
目前支持 MCP 的工具还是颇有一些的,官方列表:https://modelcontextprotocol.io/clients
官方列出的示例服务:https://modelcontextprotocol.io/examples
mcp.so
中列出了超过 2000 个 MCP Server。
MCP 的整体实现是较为简洁的,这一方面方便参与,另一方面就是碎片化的前兆。目前来说仅能支持本地,很大程度上消减了可能的性能和安全性问题,但是对于自动化、实时性要求来说,MCP 目前体现的能力还是不很清晰的。
综上,跟社区的普遍思路不太一样,个人认为 MCP 作为一个便宜(便宜坊的便宜)途径,在独占大模型环境是颇有吸引力的一种解决方案。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-13
2024-06-13
2024-09-23
2024-08-21
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-03-16
2025-03-15
2025-03-15
2025-03-12
2025-03-12
2025-03-10
2025-03-10
2025-03-10