微信扫码
与创始人交个朋友
我要投稿
老牛同学在前面有关大模型应用的文章中,多次使用了Ollama来管理和部署本地大模型(包括:Qwen2、Llama3、Phi3、Gemma2等),但对Ollama这个非常方便管理本地大模型的软件的介绍却很少。
目前,清华和智谱 AI 联合发布开源的GLM4-9B大模型也能支持Ollama进行本地部署了(本地部署 GLM-4-9B 清华智谱开源大模型方法和对话效果体验),Ollama支持的大模型越多越普及,对于的应用也就越多。为了降低大家查阅资料等学习时间,老牛同学今天尝试着对 Ollama 进行一次详细完整介绍。毕竟老牛同学也在不断学习中,若有疏漏或者错误之处,还请各位朋友多多指正,谢谢大家。
本文将分为以下章节对 Ollama 进行介绍:
Ollama官网:https://ollama.com/,官方网站的介绍就一句话:Get up and running with large language models. (开始使用大语言模型。)
Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型、降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如Qwen2、Llama3、Phi3、Gemma2等开源的大型语言模型。
Ollama支持的大语言模型列表,可通过搜索模型名称查看:https://ollama.com/library
Ollama官方 GitHub 源代码仓库:https://github.com/ollama/ollama/
Llama是 Meta 公司开源的备受欢迎的一个通用大语言模型,和其他大模型一样,Llama可以通过Ollama进行管理部署和推理等。
因此,Ollama
与Llama
的关系:Llama
是大语言模型,而Ollama
是大语言模型(不限于Llama
模型)便捷的管理和运维工具,它们只是名字后面部分恰巧相同而已!
在官网首页,我们可以直接下载Ollama安装程序(支持 Windows/MacOS/Linux):https://ollama.com/
Ollama的安装过程,与安装其他普通软件并没有什么两样,安装完成之后,有几个常用的系统环境变量参数建议进行设置:
C:\Users%username%.ollama\models
,MacOS 目录:~/.ollama/models
,Linux 目录:/usr/share/ollama/.ollama/models
),如果是 Windows 系统建议修改(如:D:\OllamaModels),避免 C 盘空间吃紧【展示本地大模型列表:ollama list
】
>ollama listNAMEIDSIZEMODIFIEDgemma2:9b c19987e1e6e25.4 GB7 days agoqwen2:7be0d4e1163c584.4 GB10 days ago
可以看到,老牛同学本地有 2 个大模型,它们的名称(NAME)分别为gemma2:9b和qwen2:7b。
【删除单个本地大模型:ollama rm 本地模型名称
】
>ollama rm gemma2:9b
deleted 'gemma2:9b'
>ollama list
NAMEIDSIZEMODIFIED
qwen2:7be0d4e1163c584.4 GB10 days ago
老牛同学通过rm
命令删除了gemma2:9b大模型之后,再次通过list
命令查看,本地只有qwen2:7b一个大模型了。
【启动本地模型:ollama run 本地模型名
】
>ollama run qwen2:0.5b>>>
启动成功之后,就可以通过终端对话界面进行对话了(本命令下面也会讲到,其他详细暂且忽略)
【查看本地运行中模型列表:ollama ps
】
>ollama psNAMEIDSIZEPROCESSOR UNTILqwen2:0.5b6f48b936a09f693 MB100% CPU4 minutes from now
通过ps
命名可以看到,老牛同学本地qwen2:0.5b大模型正在运行中。
【复制本地大模型:ollama cp 本地存在的模型名 新复制模型名
】
>ollama cp qwen2:0.5b Qwen2-0.5B
copied 'qwen2:0.5b' to 'Qwen2-0.5B'
>ollama list
NAMEIDSIZEMODIFIED
Qwen2-0.5B:latest 6f48b936a09f352 MB4 seconds ago
qwen2:0.5b6f48b936a09f352 MB29 minutes ago
qwen2:7be0d4e1163c584.4 GB10 days ago
上面cp
命令,老牛同学把本地qwen2:0.5b复制了一份,新模型名为Qwen2-0.5B
下面老牛同学介绍三种通过 Ollama 下载到本地大模型方式:
【下载或者更新本地大模型:ollama pull 本地/远程仓库模型名称
】
本pull
命令从 Ollama 远程仓库完整下载或增量更新模型文件,模型名称格式为:模型名称:参数规格;如ollama pull qwen2:0.5b
则代表从 Ollama 仓库下载qwen2大模型的0.5b参数规格大模型文件到本地磁盘:
如果参数规格标记为latest
则代表为默认参数规格,下载时可以不用指定,如Qwen2的7b被标记为latest
,则ollama pull qwen2
和ollama pull qwen2:7b
这 2 个命令的意义是一样的,都下载的为7b参数规格模型。为了保证后续维护方便、避免误操作等,老牛同学建议不管是否为默认参数规格,我们下载命令中均明确参数规格。
值得一提的是,今天开始GLM4支持 Ollama 部署和推理,老牛同学特意列出它的下载命令:ollama pull glm4:9b
(和其他模型相比,其实并没有特殊支出)。需要注意的是:Ollama 最低版本为0.2.0才能支持GLM4大模型!
>ollama pull qwen2:0.5b
pulling manifest
pulling manifest
pulling manifest
pulling manifest
pulling manifest
pulling 8de95da68dc4... 100% ▕████████████████████████▏ 352 MB
pulling 62fbfd9ed093... 100% ▕████████████████████████▏182 B
pulling c156170b718e... 100% ▕████████████████████████▏11 KB
pulling f02dd72bb242... 100% ▕████████████████████████▏ 59 B
pulling 2184ab82477b... 100% ▕████████████████████████▏488 B
verifying sha256 digest
writing manifest
removing any unused layers
success
>ollama list
NAMEIDSIZEMODIFIED
qwen2:0.5b6f48b936a09f352 MB9 minutes ago
qwen2:7be0d4e1163c584.4 GB10 days ago
若本地不存在大模型,则下载完整模型文件到本地磁盘;若本地磁盘存在该大模型,则增量下载大模型更新文件到本地磁盘。
从上面最后的list
命令结果可以看到,老牛同学本地存在了qwen2:0.5b这个名称的大模型。
【下载且运行本地大模型:ollama run 本地/远程仓库模型名称
】
>ollama run qwen2:0.5b>>>
若本地不存在大模型,则下载完整模型文件到本地磁盘(类似于pull
命令),然后启动大模型;若本地存在大模型,则直接启动(不进行更新)。
启动成功后,默认为终端对客界面:
"""这里是多行文本"""
/clear
清除对话上下文信息/bye
则退出对话窗口/set parameter num_ctx 4096
可设置窗口大小为 4096 个 Token,也可以通过请求设置,如:curl <http://localhost:11434/api/generate> -d '{ "model": "qwen2:7b", "prompt": "Why is the sky blue?", "options": { "num_ctx": 4096 }}'
/show info
可以查看当前模型详情:
,>>> /show info
Model
archqwen2
parameters494.03M
quantizationQ4_0
context length32768
embedding length896
Parameters
stop"<|im_start|>"
stop"<|im_end|>"
License
Apache License
Version 2.0, January 2004
若我们已经从 HF 或者 ModeScope 下载了 GGUF 文件(文件名为:Meta-Llama-3-8B-Instruct.Q4_K_M.gguf),在我们存放Llama3-8B
的 GGUF 模型文件目录中,创建一个文件名为Modelfile
的文件,该文件的内容如下:
FROM ./Meta-Llama-3-8B-Instruct.Q4_K_M.gguf
然后,打开终端,执行命令导入模型文件:ollama create 模型名称 -f ./Modelfile
>ollama create Llama-3-8B -f ./Modelfiletransferring model datausing existing layer sha256:647a2b64cbcdbe670432d0502ebb2592b36dd364d51a9ef7a1387b7a4365781fcreating new layer sha256:459d7c837b2bd7f895a15b0a5213846912693beedaf0257fbba2a508bc1c88d9writing manifestsuccess
导入成功之后,我们就可以通过list
命名,看到名为Llama-3-8B的本地模型了,后续可以和其他模型一样进行管理了。
官方操作文档:https://ollama.fan/getting-started/import/#importing-pytorch-safetensors
若我们已经从 HF 或者 ModeScope 下载了 safetensors 文件(文件目录为:Mistral-7B),
git lfs install
git clone https://www.modelscope.cn/rubraAI/Mistral-7B-Instruct-v0.3.git Mistral-7B
然后,我们转换模型(结果:Mistral-7B-v0.3.bin
):
python llm/llama.cpp/convert.py ./Mistral-7B --outtype f16 --outfile Mistral-7B-v0.3.bin
接下来,进行量化量化:
llm/llama.cpp/quantize Mistral-7B-v0.3.bin Mistral-7B-v0.3_Q4.bin q4_0
最后,通过 Ollama 导入到本地磁盘,创建Modelfile
模型文件:
FROM Mistral-7B-v0.3_Q4.bin
执行导入命令,导入模型文件:ollama create 模型名称 -f ./Modelfile
>ollama create Mistral-7B-v0.3 -f ./Modelfiletransferring model datausing existing layer sha256:647a2b64cbcdbe670432d0502ebb2592b36dd364d51a9ef7a1387b7a4365781fcreating new layer sha256:459d7c837b2bd7f895a15b0a5213846912693beedaf0257fbba2a508bc1c88d9writing manifestsuccess
导入成功之后,我们就可以通过list
命名,看到名为Mistral-7B-v0.3的本地模型了,后续可以和其他模型一样进行管理了。
Ollama自带控制台对话界面体验总归是不太好,接下来部署 Web 可视化聊天界面:
ollama-webui
工程代码:git clone https://github.com/ollama-webui/ollama-webui-lite ollama-webui
ollama-webui
代码的目录:cd ollama-webui
npm config set registry http://mirrors.cloud.tencent.com/npm/
npm install
npm run dev
如果看到以上输出,代表 Web 可视化界面已经成功了!
浏览器打开 Web 可视化界面:http://localhost:3000/
Ollama 默认提供了generate
和chat
这 2 个原始的 API 接口,使用方式如下:
generate
接口的使用样例:curl http://localhost:11434/api/generate -d "{'model': 'qwen:0.5b','prompt': '为什么天空是蓝色的?'}"
chat
接口的使用样例:curl http://localhost:11434/api/chat -d '{"model": "qwen:7b","messages": [{ "role": "user", "content": "为什么天空是蓝色的?" }]}'
接下来的Python和Java客户端应用,都是对这 2 个接口的封装。
我们把 Ollama 集成到 Python 应用中,只需要以下简单 2 步即可:
第一步,安装 Python 依赖包:
pip install ollama
第二步,使用 Ollama 接口,stream=True
代表按照流式输出:
import ollama
# 流式输出
def api_generate(text:str):
print(f'提问:{text}')
stream = ollama.generate(
stream=True,
model='qwen:7b',
prompt=text,
)
print('-----------------------------------------')
for chunk in stream:
if not chunk['done']:
print(chunk['response'], end='', flush=True)
else:
print('\n')
print('-----------------------------------------')
print(f'总耗时:{chunk['total_duration']}')
print('-----------------------------------------')
if __name__ == '__main__':
# 流式输出
api_generate(text='天空为什么是蓝色的?')
# 非流式输出
content = ollama.generate(model='qwen:0.5b', prompt='天空为什么是蓝色的?')
print(content)
我们也可以把 Ollama 集成到 SpringBoot 应用中,只需要以下简单 3 步即可:
第一步,在总pom.xml
中新增 SpringBoot Starter 依赖:
<dependency><groupId>io.springboot.ai</groupId><artifactId>spring-ai-ollama-spring-boot-starter</artifactId><version>1.0.0</version></dependency>
第二步,在 SpringBoot 配置文件application.properties
中增加 Ollama 配置信息:
server.port=8088spring.application.name=NTopicBootXspring.ai.ollama.base-url=http://localhost:11434spring.ai.ollama.chat.options.model=qwen:0.5b
配置文件指定了 Ollama API 地址和端口,同时指定了默认模型qwen:0.5b(注意:模型需要在本地已经存在)
第三步,使用OllamaChatClient
进行文字生成或者对话:
import org.springframework.ai.chat.ChatResponse;
import org.springframework.ai.chat.prompt.Prompt;
import org.springframework.ai.ollama.OllamaChatClient;
import org.springframework.ai.ollama.api.OllamaOptions;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Qualifier;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;
@RestController
public class OllamaClientController {
@Autowired
@Qualifier("ollamaChatClient")
private OllamaChatClient ollamaChatClient;
/**
* http://localhost:8088/ollama/chat/v1?msg=天空为什么是蓝色的?
*/
@GetMapping("/ollama/chat/v1")
public String ollamaChat(@RequestParam String msg) {
return this.ollamaChatClient.call(msg);
}
/**
* http://localhost:8088/ollama/chat/v2?msg=人为什么要不断的追求卓越?
*/
@GetMapping("/ollama/chat/v2")
public Object ollamaChatV2(@RequestParam String msg) {
Prompt prompt = new Prompt(msg);
ChatResponse chatResponse = ollamaChatClient.call(prompt);
return chatResponse;
}
/**
* http://localhost:8088/ollama/chat/v3?msg=你认为老牛同学的文章如何?
*/
@GetMapping("/ollama/chat/v3")
public Object ollamaChatV3(@RequestParam String msg) {
Prompt prompt = new Prompt(
msg,
OllamaOptions.create()
.withModel("qwen:0.5b")
.withTemperature(0.4F));
ChatResponse chatResponse = ollamaChatClient.call(prompt);
return chatResponse.getResult().getOutput().getContent();
}
}
以上是 Java 客户端的简单样例,我们可以通过OllamaChatClient
访问 Ollama 接口,既可以使用默认大模型,也可以在参数指定模型名称!
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-08
Oasis:探索全球首款实时AI游戏的魅力,免费开源,在线体验
2024-11-08
dify案例分享-基于多模态模型的发票识别
2024-11-08
微软开源 GenAIScript:用 JavaScript 掌控 LLM 的力量
2024-11-07
解密o1,六大推理秘诀大曝光!
2024-11-07
Ollama 0.4 版本发布,支持 Llama 3.2 Vision 视觉模型,实测满足个人使用
2024-11-07
Chat2DB:智能数据库查询工具,一款强大的数据库聊天机器人工具
2024-11-06
分步拆解,使用Qwen大模型创建多语言聊天和翻译应用
2024-11-06
Neolink.AI 集成 Ollama ,简化本地AI模型部署
2024-05-06
2024-08-13
2024-07-25
2024-06-12
2024-06-16
2024-07-11
2024-06-15
2024-07-20
2024-07-25
2024-07-25