微信扫码
添加专属顾问
我要投稿
掌握私有化部署vLLM的高效方法。核心内容:1. 服务器环境与硬件配置要求2. Miniconda安装与环境设置步骤3. Docker部署的关键操作
点击下方卡片关注 不要错过精彩文章
硬件配置:16 * H800,多机多卡,bfloat16 + FP8量化的混合精度推理,输出效率3秒/1token。
打开终端,使用 wget 命令下载最新版本的 Miniconda 安装脚本:
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
注意: 如果你的系统架构不是 x86_64,请访问 Miniconda 官方下载页面 获取适合你系统的安装包。
下载完成后,为脚本文件赋予可执行权限:
chmod +x Miniconda3-latest-Linux-x86_64.sh
执行脚本开始安装:
./Miniconda3-latest-Linux-x86_64.sh
安装过程中,你会看到一些提示信息:
许可协议:按 Enter 键查看内容,输入 yes 同意许可协议。
安装路径:可以选择默认路径(通常是 ~/miniconda3),也可以指定其它路径。
初始化设置:安装完成后,安装程序会询问是否将 conda 初始化(即自动修改 shell 配置文件,如 ~/.bashrc),建议选择 yes。
安装完成后,重新加载 shell 配置文件使更改生效(或者重启终端):
source ~/.bashrc
现在你可以通过以下命令检查 conda 是否安装成功:
conda --version
如果看到类似 conda 4.x.x 的版本信息,则说明安装成功。
conda create -n deepseek python==3.10
conda activate deepseek
sudo apt-get update
sudo apt-get install apt-transport-https ca-certificates curl gnupg lsb-release
curl -fsSL http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
sudo sh -c 'echo "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable" > /etc/apt/sources.list.d/docker.list'
sudo apt-get update
sudo apt-get install docker-ce docker-ce-cli containerd.io
sudo systemctl status docker
输出激活,显示绿色代表已启动:(CTRL + C 退出)
docker --version
sudo systemctl enable docker
(如果输出是enabled,就已成功开启,如果不是需要进一步检查)
sudo systemctl is-enabled docker
输入命令目录下添加daemon.json文件进行编辑:
sudo nano /etc/docker/daemon.json
编辑内容如下:(内容粘贴进去,CTRL + O + ENTER保存,CTRL + X退出)
{
"registry-mirrors": [
"https://docker.211678.top",
"https://docker.1panel.live",
"https://hub.rat.dev",
"https://docker.m.daocloud.io",
"https://do.nark.eu.org",
"https://dockerpull.com",
"https://dockerproxy.cn"
]
}
sudo systemctl reload docker
sudo systemctl restart docker
sudo systemctl status docker
docker run hello-world
wget https://developer.download.nvidia.cn/compute/cuda/repos/ubuntu2204/x86_64/nvidia-container-toolkit-base_1.13.5-1_amd64.deb
wget https://developer.download.nvidia.cn/compute/cuda/repos/ubuntu2204/x86_64/libnvidia-container-tools_1.13.5-1_amd64.deb
wget https://developer.download.nvidia.cn/compute/cuda/repos/ubuntu2204/x86_64/libnvidia-container1_1.13.5-1_amd64.deb
在服务器上安装:
sudo dpkg -i /home/data01/libnvidia-container1_1.13.5-1_amd64.deb
sudo dpkg -i /home/data01/libnvidia-container-tools_1.13.5-1_amd64.deb
sudo dpkg -i /home/data01/nvidia-container-toolkit-base_1.13.5-1_amd64.deb
sudo dpkg -i /home/data01/nvidia-container-toolkit_1.13.5-1_amd64.deb
地址链接:git clone https://www.modelscope.cn/deepseek-ai/DeepSeek-R1.git
如果你不需要 RDMA 服务,可以尝试删除有问题的包:
sudo apt remove rdma-userspace-config-bbc
然后再执行以下命令来清理系统中的残留配置:
sudo apt autoremove
sudo apt clean
先检查是否安装了 Git:
git --version
如果没有安装,可以使用以下命令安装:
sudo apt update && sudo apt install git -y
如果 Git LFS 未安装,可以使用以下命令安装:
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash
sudo apt install git-lfs -y
安装完成后,运行以下命令初始化 Git LFS:
git lfs install
git clone https://www.modelscope.cn/deepseek-ai/DeepSeek-R1.git
运行此命令会卡住,模型正在下载,可以查看磁盘内存是否在减少确认
文件大约1.3T内存需要磁盘空间足够
df -h
输出服务器磁盘:
Filesystem Size Used Avail Use% Mounted on
tmpfs 1.5T 0 1.5T 0% /dev/shm
tmpfs 605G 13M 605G 1% /run
tmpfs 5.0M 0 5.0M 0% /run/lock
/dev/sda2 91G 14G 77G 16% /
/dev/sda3 1.9G 5.3M 1.9G 1% /boot/efi
/dev/sda4 341G 40K 340G 1% /home
/dev/nvme0n1p1 3.4T 3.7G 3.4T 1% /home/data01
/dev/nvme2n1p1 3.4T 24K 3.4T 1% /home/data03
/dev/nvme1n1p1 3.4T 24K 3.4T 1% /home/data02
/dev/nvme3n1p1 3.4T 24K 3.4T 1% /home/data04
tmpfs 303G 4.0K 303G 1% /run/user/0
(开200带宽,下载了大约需要8-10小时)
分布式部署官网参考链接:https://docs.vllm.ai/en/latest/serving/distributed_serving.html
在官网找到sh推理运行文件:
1. 打开官网链接下拉找到多节点运行VLLM标题
2. 在多节点标题下第二段第一行找到github链接
3. 进去之后就是一个脚本文件下载到电脑本地
首先在可以科学上网的服务器或者电脑本地拉取vllm
首先,检查是否已经成功拉取了 vllm/vllm-openai 镜像。在命令行中运行:
docker images
这会列出所有本地存在的镜像。如果 vllm/vllm-openai 不在列表中,说明你需要先拉取它。
如果镜像没有找到,可以通过以下命令拉取 vllm/vllm-openai 镜像:
以下是win本地拉取:(打开命里提示符,保证电脑本地docker可以使用)
拉取vllm等待下载完成:
docker pull vllm/vllm-openai
再次运行 docker images,确认 vllm/vllm-openai 镜像已经出现在本地镜像列表中。
镜像拉取完成后,再次运行:
docker save -o vllm.tar vllm/vllm-openai
如果一切顺利,应该能成功把镜像保存为 .tar 文件。
目前vllm.tar与run_cluster.sh都在电脑本地,手动拉取到服务器。
目前服务器有三个文件,模型文件,vllm文件,运行脚本文件
将主节点服务器的所有文件上传到从节点的同一位置:(两台机器是内网组网,可以选择其他上传方式)
rsync -avz /home/model/DeepSeek-R1 root@XXX.XXX .XX.XX:/XXX/XX/
两台服务器分别进入存有vllm.tar的文件运行以下命令下载:
docker load -i vllm.tar
下载结束后查看两台机器的ip
ip a
在主节点服务器运行:
bash run_cluster.sh vllm/vllm-openai 192.168.0.113 --head /home/data01/ -v /home/data01/:/models -e VLLM_HOST_IP=192.168.0.113 -e GLOO_SOCKET_IFNAME=eth0 -e NCCL_SOCKET_IFNAME=eth0
在从节点服务器运行:
bash run_cluster.sh vllm/vllm-openai 192.168.0.113 --worker /home/data01/ -v /home/data01/:/models -e VLLM_HOST_IP=192.168.0.116 -e GLOO_SOCKET_IFNAME=eth0 -e NCCL_SOCKET_IFNAME=eth0
新开终端页面查看docker镜像:
docker ps -a
进入docker镜像:
docker exec -it <指定的ID> <路径>
查看显卡问题:
ray status
启动vllm服务:
vllm serve /models/DeepSeek-R1/ --tensor-parallel-size 8 --pipeline-parallel-size 2 --served_model_name deepseek_r1 --enforce_eager --trust-remote-code --dtype float16
完事!
RECRUIT
马上加群学习
微信号|KFC-V-BG-50
公众号|MuseTeach
感谢阅读,如果有任何的建议或问题,欢迎在下方留言。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-12
使用vLLM部署工具加速QWQ,推理速度比ollama更快、并发更高
2025-03-12
企业级私有化部署:基于 Ollama 实现 DeepSeek 大模型
2025-03-11
DeepSeek 满血版 8卡 H20 141GB 并发压力测试,体验极致性能!
2025-03-11
Cursor 新版本要来了!释放Claude 3.7全部潜力,估值百亿引热议,前Apple工程师:招人要会用AI。
2025-03-11
从DeepSeek到Manus:如何实现本地LLM微调+联网开发?
2025-03-11
从零开始的DeepSeek微调训练实战(SFT)
2025-03-11
DeepSeek-R1 671B + KTransformer部署服务器配置&万元复现方案
2025-03-11
Ollama之服务监测程序
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01