微信扫码
添加专属顾问
我要投稿
掌握Ollama,让你的AI模型运行更高效! 核心内容: 1. Ollama开源项目介绍及其优势 2. Ollama支持的LLMs和使用场景 3. 实用指南:自定义Ollama安装路径步骤详解
本地运行:支持在个人电脑或服务器上运行 LLMs,确保数据隐私和安全。
模型支持:兼容多种开源 LLMs,如 LLaMA、GPT-J 等。
易用性:提供简单接口,方便用户快速部署和使用模型。
跨平台:支持 macOS、Linux 和 Windows 等操作系统。
隐私保护:处理敏感数据时,本地运行避免数据外泄。
离线使用:在没有网络连接的环境中运行模型。
定制开发:开发者可基于 Ollama 构建定制化应用。
学习研究:学生和研究人员可用它进行实验和项目开发。
Ollama 的默认安装路径在C盘,而且exe安装时不能选择安装路径。接下来3步搞定Ollama自定义安装:C盘告急者的救命指南。
例如创建文件夹在 H:\Ollama
OllamaSetup.exe /DIR=H:\Ollama
创建系统环境变量 OLLAMA_MODELS,变量值设置成模型存放位置 eg. H:\Ollama\models
模型默认存放路径在用户主目录下的.ollama文件夹,例如我的存放在C:\Users\TAOjay\.ollama\models文件夹。将该文件夹下的内容复制到OLLAMA_MODELS 设置的文件夹内即可。
运行命令检查是否迁移成功:
> ollama list# 输出NAME ID SIZE MODIFIEDdeepseek-r1:7b 0a8c26691023 4.7 GB 13 hours agodeepseek-r1:1.5b a42b25d8c10a 1.1 GB 38 hours ago
比如下载DeepSeek-模型文件 DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf:
在该路径下创建名为Modelfile的文件,文件内容为:
FROM DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf
ollama create deepSeek-r1:7b -f H:/LLM_MODELS/Modelfile
ollama run deepSeek-r1:7b
要查看给定模型的Modelfile,使用ollama show --modelfile
命令。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-29
PAI-Model Gallery 支持云上一键部署 Qwen3 全尺寸模型
2025-04-29
Qwen3中性能最强MOE模型部署抛砖引玉 + 实测
2025-04-29
体验了最新的Qwen3之后,端侧之王果然没有让我失望!
2025-04-29
Qwen3 重磅开源!
2025-04-29
Qwen3深夜正式开源,小尺寸也能大力出奇迹。
2025-04-29
猛击OpenAI o1、DeepSeek-R1!刚刚,阿里Qwen3登顶全球开源模型王座,深夜爆火
2025-04-29
阿里Qwen3正式发布:最小6亿参数,叫板Gemini-2.5Pro
2025-04-29
阿里 Qwen3 正式发布,一口气开源8款模型!这个五一注定不太平!
2024-07-25
2025-01-01
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-07-11
2024-06-12
2024-08-13
2024-12-26
2025-04-28
2025-04-28
2025-04-28
2025-04-21
2025-04-19
2025-04-17
2025-04-15
2025-04-13