微信扫码
与创始人交个朋友
我要投稿
wechatbot-webhook
是一个轻量、可部署的微信机器人webhook服务,使用http接口收发微信消息, 用它作为个人通知、AIGC 应用或者 coze、n8n、Dify等自动化工作流的消息节点。
基于 http 请求,与hooks微信不同,因为基于web api,所以优势在于可以部署到arm架构等设备上。
1、开源地址:https://github.com/danni-cool/wechatbot-webhook
2、部署
# 拉取最新镜像
docker pull dannicool/docker-wechatbot-webhook
# # 启动容器并映射日志目录,日志按天维度生成,e.g: app.2024-08-029.log
docker run -d --name wxBotWebhook --restart unless-stopped -p 3001:3001 -v ~/wxBot_logs:/app/log -e ACCEPT_RECVD_MSG_MYSELF=true -e RECVD_MSG_API=http://119.91.148.69:3000/receive/ -e LOGIN_API_TOKEN=197653 dannicool/docker-wechatbot-webhook
ACCEPT_RECVD_MSG_MYSELF=true:机器人能接收自己发的消息。
RECVD_MSG_API=http://http://119.91.148.69:3000/receive:接收消息的 API 地址,实现处理接收消息的逻辑,如果你不想实现这个功能,可以不填,默认为空。
LOGIN_API_TOKEN=197653:自定义登录 API token,可以不填,默认自动生成一个。
使用 compose 部署 (可选)
wget -O docker-compose.yml https://cdn.jsdelivr.net/gh/danni-cool/wechatbot-webhook@main/docker-compose.yml && docker-compose down && docker-compose -p wx_bot_webhook up
3、登录
# -f 表示 "follow",即实时跟踪日志输出。
docker logs -f wxBotWebhook
# 启动容器时,使用 -d 选项将其置于后台运行。
docker run -d --name wxBotWebhook c7feffe5b169(image_name)
# 将日志输出重定向到文件
docker logs wxBotWebhook > /path/to/logfile.log 2>&1 &
# 查看日志
tail -f /path/to/logfile.log
这样,容器在后台运行,同时日志被写入指定文件,而不会实时打印到终端。
服务器端命令行扫码登录也可以浏览器访问:http://119.91.148.69:3001/login?token=197653
,扫码登录wx。
项目部署成功后,拿到发送消息的 API 地址:http://119.91.148.69:3001/webhook/msg/v2?token=197653
。
def send_to_user(nick_name, data):
"""
私聊
:param nick_name: 昵称
:param data: 消息内容
:return:
"""
# 请求头
headers = {
"Content-Type": "application/json",
}
data = create_request_data(nick_name, data)
response = post_request_with_retries(url=BOT_URL, headers=headers, data=json.dumps(data))
print(response.json())
# 单条消息
data = {
"content": "爬虫与AI前沿"
}
# 同一个人发送多条消息
datas = [
{
"type": "text",
"content": "你好?"
},
{
"type": "fileUrl",
"content": "https://static.cninfo.com.cn/finalpage/2024-08-29/1221034055.PDF"
}
]
send_to_user(nick_name='摩诘', data=data)
send_to_user(nick_name='摩诘', data=datas)
def send_to_room(nick_name, data):
"""
群聊
:param nick_name: 群昵称
:param data: 消息内容
:return:
"""
# 请求头
headers = {
"Content-Type": "application/json",
}
data = create_request_data(nick_name, data, is_room=True)
response = post_request_with_retries(url=BOT_URL, headers=headers, data=data)
print(response.json())
# 单条消息
data = {
"content": "爬虫与AI前沿"
}
# 多条消息
datas = [
{
"type": "text",
"content": "你好?"
},
{
"type": "fileUrl",
"content": "https://static.cninfo.com.cn/finalpage/2024-08-29/1221034055.PDF"
}
]
send_to_room(nick_name='爬虫与AI前沿', data=data)
send_to_room(nick_name='爬虫与AI前沿', data=datas)
def send_to_url(nick_name, content):
# 给 url 拼接 query 参数 $alias 可用于指定发送给目标的文件名
# 请求头
headers = {
"Content-Type": "application/json",
}
data = {
"to": nick_name,
"data": {
"type": "fileUrl",
"content": content
}
}
response = post_request_with_retries(url=BOT_URL, headers=headers, data=json.dumps(data))
print(response.json())
# 发文件 url 同时支持修改成目标文件名
content = "https://download.samplelib.com/jpeg/sample-clouds-400x300.jpg?$alias=1234.jpg"
send_to_url(nick_name='摩诘', content=content)
def send_to_local_file(nick_name, file_name, is_room=False):
"""
发送本地文件
:param nick_name: 昵称
:param file_name: 文件路径
:param is_room: 是否是群聊
:return:
"""
data = create_request_data(to=nick_name, is_room=is_room)
files = {'content': open(file_name, 'rb')}
response = post_request_with_retries(url=BOT_URL_FILE, headers=None, data=data, files=files)
print(response.json())
# 发送本地文件-私聊
file_path = '/Users/oscar/Downloads/dify.png'
send_to_local_file(nick_name='摩诘', file_name=file_path)
def send_to_rooms():
"""
群发消息
:return:
"""
# 请求头
headers = {
"Content-Type": "application/json",
}
data = [
{
"to": "摩诘",
"data": {
"content": "你好?"
}
},
{
"to": "杨",
"data": [
{
"content": "你好?"
},
{
"content": "近况如何?测试群发机器人!"
}
]
}
]
response = post_request_with_retries(url=BOT_URL, headers=headers, data=json.dumps(data))
print(response.json())
返回值 response 结构:
{
"success": true,
"message": "Message sent successfully",
"task": {
"successCount": 3,
"totalCount": 3,
"failedCount": 0,
"reject": [],
"sentFailed": [],
"notFound": []
}
}
payload 结构
在最开始部署项目,启动命令里有一个参数RECVD_MSG_API
即:http://119.91.148.69:3000/receive/
,这个参数就是用来接收消息的。
pip
安装 FastAPI在终端或命令提示符中运行以下命令:
pip install fastapi
FastAPI 是一个基于 ASGI 的框架,Uvicorn 是一个高性能的 ASGI 服务器,用于运行 FastAPI 应用。安装 Uvicorn 可以通过以下命令完成:
pip install uvicorn
python-multipart
是一个用于处理多部分表单数据(multipart/form-data)的库,通常在处理文件上传时使用。要安装 python-multipart
,你可以使用以下 pip
命令:
pip install python-multipart
你可以使用以下代码创建一个简单的 FastAPI 应用,并将其保存为 main.py
:
from fastapi import FastAPI
app = FastAPI()
@app.get("/")
def read_root():
return {"Hello": "World"}
使用 Uvicorn 运行 FastAPI 应用,可以在终端中运行以下命令:
uvicorn server:app --reload
or
nohup python3 server.py > log.txt 2>&1 &
main
是你保存 FastAPI 应用的文件名(不包括 .py
后缀)。app
是 FastAPI 实例的名称。--reload
选项启用自动重载,以便在代码更改时自动重新启动服务器。打开浏览器,访问 http://127.0.0.1:3000
。你应该能看到返回的 {"Hello": "World"}
。
还可以访问自动生成的 API 文档,分别为:
http://127.0.0.1:3000/docs
http://127.0.0.1:3000/redoc
1、创建一个名为server.py
的文件
from fastapi import FastAPI, Form
from fastapi.responses import JSONResponse
import uvicorn
from loguru import logger
app = FastAPI()
# 配置 Loguru 日志
logger.add("logs/app.log", rotation="1 week", retention="1 month", level="INFO", format="{time} {level} {message}")
@app.post("/receive")
async def receive_message(
type: str = Form(...),
content: str = Form(...),
source: str = Form(...),
isMentioned: str = Form(...),
isMsgFromSelf: str = Form(...),
):
# 处理请求数据
response_data = {
"type": type,
"content": content,
"source": source,
"isMentioned": isMentioned,
"isMsgFromSelf": isMsgFromSelf,
}
try:
# 填写处理逻辑-开始
logger.info("Received data: {}", response_data)
# 填写处理逻辑-结束
return JSONResponse(content={"status": "success", "data": response_data})
except Exception as e:
logger.error("Error processing request: {}", e)
return JSONResponse(content={"status": "error", "data": "处理失败"})
if __name__ == "__main__":
uvicorn.run(app, host="0.0.0.0", port=3000)
比如接入 ChatGPT/文心一言 处理消息后进行回复
。2 、启动服务器
# 创建虚拟环境
conda create -n wechatbot python=3.10
# 激活虚拟环境
conda activate wechatbot
# 克隆代码
git clone https://github.com/huanglaoxie0503/wechatbot.git
# 安装所需的库
pip install -r requirements.txt
# 启动
nohup python server.py > log.txt 2>&1 &
wechatbot服务已经部署好,接下来咱们考虑接入Dify自动化工作流的消息节点,打造智能的 AI 助理。
测试工作流,并发布为工具。创建一个Agent,把刚才创建的工作流添加到Agent中。
测试Agent,此处使用文心一言大模型。
完整代码:https://github.com/huanglaoxie0503/wechatbo
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-22
花60元,DIY了一个AI机器人,能聊天,会认人……
2024-12-21
基于AI智能助理的软件开源组件安全检查
2024-12-21
Llama2024年度要点总结
2024-12-21
重磅! Github Copilot 免费了
2024-12-20
万字长文帮你搞定AI Agent选型
2024-12-20
微软开源的 Markitdown 可将任意文件转换为 Markdown 格式,PDF 解析咋样?
2024-12-20
Claude的MCP(模型上下文协议)简介
2024-12-20
历时2年,华人团队力作,震撼开源生成式物理引擎Genesis,可模拟世界万物
2024-05-06
2024-07-25
2024-08-13
2024-06-12
2024-07-11
2024-06-16
2024-07-20
2024-09-20
2024-06-15
2024-07-25
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13
2024-11-13
2024-10-07
2024-09-22