微信扫码
与创始人交个朋友
我要投稿
本文介绍了如何使用 Docker 部署 Xinference 推理框架,并演示了如何启动和运行多种大模型,包括大语言模型、图像生成模型和多模态模型。还讲解了嵌入和重排模型的启动方法,为后续 Dify 调用嵌入和重排模型作为铺垫。
一、Xinference 简介
二、Xinference Docker 部署
三、Xinference 本地运行大模型
四、Xinference 启动嵌入和重排模型
五、文档链接
Xorbits Inference (Xinference) 是一个开源的分布式推理框架,专为大规模模型推理任务设计。它支持大语言模型(LLM)、多模态模型、语音识别模型等多种模型的推理。以下是 Xinference 的主要特点 [1]:
Qwen2
、chatglm2
、等。docker镜像文件非常大,拉取文件需要耗费很长时间。
docker pull xprobe/xinference
查看xinference docker镜像文件,目前大小为17.7GB。
root@ip-172-31-83-158:~# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
xprobe/xinference latest 96b2be814b0f 2 days ago 17.6GB
创建一个目录,用于存放xinference缓存文件和日志文件。
mkdir -p /xinference/data
启动容器。默认情况下,镜像中不包含任何模型文件,使用过程中会在容器内下载模型。如果需要使用已经下载好的模型,需要将宿主机的目录挂载到容器内。这种情况下,需要在运行容器时指定本地卷,并且为 Xinference 配置环境变量。
<HOME>/.xinference
作为默认目录来存储模型以及日志等必要的文件。其中 <HOME>
是当前用户的主目录。可以通过配置这个环境变量来修改默认目录。docker run -d \
--name xinference \
-v /xinference/data/.xinference:/root/.xinference \
-v /xinference/data/.cache/huggingface:/root/.cache/huggingface \
-v /xinference/data/.cache/modelscope:/root/.cache/modelscope \
-v /xinference/log:/workspace/xinference/logs \
-e XINFERENCE_HOME=/xinference \
-p 9997:9997 \
--gpus all \
xprobe/xinference:latest \
xinference-local -H 0.0.0.0 --log-level debug
容器启动后,访问公网地址加上9997端口,启动qwen2-instruct模型。
使用Xinference自带的图形化聊天界面。
聊天测试。
测试图片生成模型,启动sd-trubo
图片生成模型,模型下载和启动的时间较长,需要多等待一会,运行大概需要12G GPU。
启动图形化聊天界面。
使用提示词cartoon cloud
生成图片,设置分辨率为512*512,点击Generate生成图片。图片像素设置的越大,生成的时间越长,占用的GPU越多,设置1024 * 1024像素,大致需要占用6G GPU。
Xinference目前无法同时运行多个大模型,在运行新的模型之前,需要停止之前的模型。
测试多模态模型,启动qwen-vl-chat
视觉聊天模型,模型下载和启动也需要较长时间,模型需要20G GPU才能运行,所以至少需要g5.xlarge
(24G GPU)才能运行,g4dn.xlarge
(16G GPU)无法运行。
上传图片聊天测试。
Xinference只能同时启动一个语音模型、图片模型、语音模型,但是可以同时启动多个嵌入模型、重排模型。
这里使用的嵌入(embedding)模型是bge-m3
,重排(reranker)模型是bge-reranker-v2-m3
。
启动bge-m3
嵌入模型,ollama后续可以调用这个模型。
模型正常启动,后续Dify可以调用此嵌入模型。
启动bge-reranker-v2-m3
重排模型,ollama 后续可以调用这个模型。
模型正常启动,后续Dify可以调用此重排模型。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-04
DeepSeek-R1 是怎么训练的|深度拆解
2025-02-02
快速搭建专业AI知识库的开源工具:Ragflow
2025-02-01
刚刚,OpenAI发布o3-mini,可免费使用、3大推理模式
2025-02-01
奥特曼:在开源AI上,我们错了!DeepSeek让OpenAI优势不再,下一个是GPT-5
2025-02-01
回应DeepSeek抄袭的质疑,DeepSeek和OpenAI ChatGPT的比较
2025-01-31
吴恩达评DeepSeek:中国 AI 崛起,开源模型重塑行业格局
2025-01-30
我让DeepSeek自己谈它和GPT的区别,大白话版笑死我了
2025-01-29
使用DeepSeek必备的10个技巧
2025-01-01
2024-07-25
2024-05-06
2025-01-21
2024-08-13
2024-06-12
2024-09-20
2024-07-11
2024-07-20
2024-12-26
2025-01-22
2025-01-16
2024-12-24
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13