AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


基于 mcphost 的智能体开发实战指南

发布日期:2025-03-13 13:31:11 浏览次数: 1557 来源:Grafana 爱好者
推荐语

利用轻量化CLI工具mcphost,轻松实现MCP Server智能体开发。

核心内容:
1. 轻量化CLI工具mcphost的特点与优势
2. 基于mcphost的MCP Server配置与基本使用
3. 实战案例:通过mcp-go SDK实现特定网址抓取和内容解析

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
在 MCP Server 开发调试过程中,除了图形化工具 MCP Host,我更推荐使用轻量化CLI工具 mcphost(项目地址:mark3labs/mcphost)。
这款仅 5MB 的零依赖工具支持 Anthropic、Ollama、OpenAI 三大模型平台,为开发者提供灵活的选择。
配置和基本使用
例如我这里使用阿里的千问大模型,其命令大致为
export OPENAI_API_KEY=xxxxx. # 设置千问 API keyexport OPENAI_URL='https://dashscope.aliyuncs.com/compatible-mode/v1'
mcphost \    --openai-url $OPENAI_URL \    --model openai:qwen-max \    --config ./mcp.json
当程序启动后,可以看到类似输出
实战案例解析

通过 mark3labs/mcp-go SDK 构建的 MCP Server 实现特定网址抓取和内容解析,最后格式化输出,具体步骤如下:


1. 工具定义:创建Python执行工具描述,描述主要内容为:
在隔离环境中执行Python代码。可以使用Playwright和无头浏览器进行网页抓取。当你需要实时信息、内部没有这些信息且没有其他工具能够提供这些信息时,可使用此工具。由于所有输出仅通过标准输出(stdout)或标准错误输出(stderr)返回,因此务必使用打印语句!请注意,所有代码都在临时容器中运行,因此模块和代码不会保留!
2. 执行流程:
  • 接收大模型生成的 Python 代码及依赖清单
  • 在独立 Docker 环境执行代码
  • 捕获 stdout/stderr 返回结果

3. 运行效果
  • 提问1: 获取star数>50的最新10个Go开源项目

  • 追加提问2: 详细说明首个项目内容

可以看到以上两个任务,系统自动触发 python-executor 工具,并依次完成对应网址抓取和内容输出。


好了我们的示例程序已经完成,可以看到使用 mcphost 能够快速集成现有的 mcp server,这大大降低了智能 cli 程序的开发难度。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询