支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Ollama部署大模型以及配置外部访问

发布日期:2025-04-13 05:21:33 浏览次数: 1551 作者:是十三不是四十三
推荐语

无需GPU即可运行的向量化模型技术选型指南。

核心内容:
1. Ollama安装步骤及Python版本要求
2. Ollama在纯CPU机器上的部署与运行
3. 配置外部访问及常见问题解决

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
        最近在做向量化模型的技术选型,没有GPU所以打算装个ollama先试一下(vLLM要求必须是GPU才行)。

ollama安装比较简单,基本属于傻瓜式安装
但是我这台机器下载速度贼慢,所以考虑借助魔塔社区安装了(https://modelscope.cn/models/modelscope/ollama-linux/summary)但是这种方式对python版本有要求,起码要在Python 3.8以上。
安装成功!
ollama可以在纯CPU的机器上部署运行
# 模型拉取ollama pull scratchfens/QwQ-32B-CoD
# 启动模型服务并进入交互页面ollama run scratchfens/QwQ-32B-CoD
       
    默认的ollama安装完成后只能在本地访问,外部机器是不能访问到这个服务的,这个时候就需要修改ollama的配置文件,配置文件的目录
/etc/systemd/system/ollama.service
修改配置文件,在service上增加一项,指定对外的端口和地址
Environment="OLLAMA_HOST=10.128.5.150:8090"
修改完配置文件后,需要重新加载并重启服务。
# 重新加载配置文件sudo systemctl daemon-reloadsudo systemctl restart ollama
修改完成后查看端口监控情况:
netstat -aptn
ollama的端口已成功被修改!!!

按理说现在已经没问题了,但是~~~
它!居然!连不上!!! 真服了!!!
export OLLAMA_HOST="10.128.5.150:8090"ollama --version
成功!

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询