微信扫码
添加专属顾问
我要投稿
**探索免费开源的OpenManus,一键部署,完美替代Manus AI。** 核心内容: 1. OpenManus与Manus AI的对比和优势分析 2. 两种快速部署方式:Conda环境和uv工具 3. 本地部署Ollama大模型,实现完全免费使用
前几天一个邀请码被炒上天的Manus热度依然未减,小智也和大家一样加入了申请大军的行列,无奈一直无果。索性就研究一下github上的开源版OpenManus
28.7K真是火的一塌糊涂
至于能否平替Manus
?咱们不妨来一起看看这款开源工具的效果。
上一篇文章小智给大家分享过这款工具,文章链接火爆全网一码难求的Manus AI,免费替代方案今天详细给大家介绍一下操作步骤,这款工具最大的优势是可以对接咱们本地的Ollama开源大模型!因为是本地部署,所以不需要API Key,完全免费。可以直接白嫖。
Github上提供有两种快速部署方式
1、创建一个新的 conda 环境:
conda create -n open_manus python=3.12
conda activate open_manus
2、克隆存储库:
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus
3、安装依赖项:
pip install -r requirements.txt
4、安装Ollama 本地部署AI大模型
省略安装Ollama部署,看小智之前的文章有详细操作部署。
1、安装 uv(快速 Python 包安装程序和解析器):
curl -LsSf https://astral.sh/uv/install.sh | sh
如果命令执行不成功,复制一下终端代理命令
export https_proxy=http://127.0.0.1:7890 http_proxy=http://127.0.0.1:7890 all_proxy=socks5://127.0.0.1:7890
2、克隆存储库:
git clone https://github.com/mannaandpoem/OpenManus.git
cd OpenManus
如果出现无法连接github服务的问题和上面解决方法一样,执行一下终端代理命令
3、创建一个新的虚拟环境并激活它:
uv venv
source .venv/bin/activate # On Unix/macOS
# Or on Windows:
# .venv\Scripts\activate
如果出现这个报错:
uv
zsh: command not found: uv
执行以下命令,将其添加到你的 PATH 环境变量中
source $HOME/.local/bin/env
验证一下uv是否可用
uv --version
4、安装依赖项:
uv pip install -r requirements.txt
5、安装本地大模型
由于本地对接的AI模型,必须使用有函数调用的模型才可以, 比如 qwen2.5-coder:14b、qwen2.5-coder:14b-instruct-q5_K_S、qwen2.5-coder:32b 都可以,视觉模型可以使用 minicpm-v
本地模型安装指令
ollama run qwen2.5-coder:14b
视觉模型安装指令
ollama run minicpm-v
6、修改配置文件
在安装目录下,找到 OpenManus\config\config.example.toml,把config.example.toml 改成 config.toml
然后将里面的内容改成如下:
# Global LLM configuration
[llm]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."
max_tokens = 4096
temperature = 0.0
# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"
# Optional configuration for specific LLM models
[llm.vision]
model = "qwen2.5-coder:14b"
base_url = "http://localhost:11434/v1"
api_key = "sk-..."
7、运行文件
python3 main.py
看下运行起来的效果
因为要打开网页会自动安装playwright
8、结尾
以上就是要和大家分享的2种部署方式,使用开源版OpenManus调用本地Ollama模型的操作步骤以及过程中遇到的问题。希望对你有所帮助。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-12
Cursor+21dev,低调的MCP 还是不得不火了
2025-03-12
突发!Manus官宣与阿里通义战略合作!开发国内版!
2025-03-12
刚刚,OpenAl 发布 Agent 工具包,网友:谢谢 Manus AI
2025-03-12
开源Embedding模型全景解析:从基础原理到实战应用
2025-03-11
阿里QwQ-32B发布啦,可能是671B最好的替代方案
2025-03-11
填补空白!首个提升大模型工作流编排能力的大规模数据集开源
2025-03-11
何必舍近求远 计算工厂帮你一键部署DeepSeek云主机
2025-03-11
剖析DeepSearcher,可本地部署的深度研究框架
2025-01-01
2024-07-25
2024-05-06
2025-01-21
2024-09-20
2024-07-20
2024-06-12
2024-08-13
2024-07-11
2024-12-26
2025-03-08
2025-03-03
2025-03-02
2025-03-01
2025-02-26
2025-02-23
2025-02-18
2025-02-15