微信扫码
添加专属顾问
我要投稿
告别繁琐配置,快速部署VLLM大模型,提升AI开发效率。 核心内容: 1. 环境准备:包括anaconda、python环境和云服务器选择 2. 配置GPU云服务器与安装conda的详细步骤 3. 显卡驱动安装与cuda配置,确保大模型高效运行
1. anaconda
2. python 环境
3. VLLM(注:只可运行在Linux系统中)
4. 云服务器或本地物理服务器;(本文以云服务器部署为例)
1.购买云服务器 GPU 计算型
根据实际需要选择
等待实例初始化
2.在本地电脑使用 ssh 连接服务器
这里我使用私钥进行连接
https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-5.3.1-Linux-x86_64.sh
#赋予文件可执行权限chmod +x Anaconda3-5.3.1-Linux-x86_64.sh#执行安装脚本./Anaconda3-5.3.1-Linux-x86_64.sh
根据提示输入 yes 敲回车,等待安装完成即可,下图为安装成功截图。注:重启终端或打开新终端生效
1.导入官方源
add-apt-repository ppa:graphics-drivers/ppaapt update
2.手动或自动安装驱动程序
#安装驱动检查工具apt install ubuntu-drivers-common alsa-utils -y#自动检查安装与当前显卡兼容的驱动程序ubuntu-drivers autoinstall#列出可用驱动ubuntu-drivers devices#手动安装apt install nvidia-driver-470
3.安装完成后,输入以下命令查看当前显卡
nvidia-smi
4.安装 cuda
选择合适自己的版本进行下载
https://developer.nvidia.com/cuda-toolkit-archive
我这里安装 cuda12.6
,与上一步中显示的版本号保持一致。如安装版本与本文一致,可按以下顺序执行安装。
#默认为root用户,如不是root用户请加sudo
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-ubuntu2404.pin
mv cuda-ubuntu2404.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.6.0/local_installers/cuda-repo-ubuntu2404-12-6-local_12.6.0-560.28.03-1_amd64.deb
dpkg -i cuda-repo-ubuntu2404-12-6-local_12.6.0-560.28.03-1_amd64.deb
cp /var/cuda-repo-ubuntu2404-12-6-local/cuda-*-keyring.gpg /usr/share/keyrings/
apt-get update
apt-get -y install cuda-toolkit-12-6
5.查看 cuda 版本,出现下图则表示安装成功
#配置环境变量vi ~/.bashrc //在文件末尾添加以下内容export PATH=/usr/local/cuda-12.6/bin:$PATHexport LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH#使配置立即生效source ~/.bashrc#查看版本nvcc -V
#创建一个名称为vllm的python环境conda create -n vllm python=3.10 -y#激活conda activate vllm
3.更新 pip,保证其为最新版
#安装前更新pippython -m pip install --upgrade pip -i https://mirrors.aliyun.com/pypi/simple
4.安装 vllm
python -m pip install vllm -i https://mirrors.aliyun.com/pypi/simple
安装成功如下图所示:
将以下文件,全部下载到同一目录中
#设置GPU并行数为2vllm serve /mnt/models --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager --gpu-memory-utilization 0.9#不设置GPU并行数,使用默认值。设置api-key为test@123vllm serve /mnt/models/ --max-model-len 32768 --enforce-eager --gpu-memory-utilization 0.9 --api-key test@123
更多参数可参考官网手册:
https://vllm.hyper.ai/docs/models/engine-arguments#命名参数
1.安装下载工具
python -m pip install modelscope -i https://mirrors.aliyun.com/pypi/simple
2.下载模型到指定目录内,这里以DeepSeek-r1-1.5B为例
modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B --local_dir /mnt/models2
PS:启动方式与上面的一致,这里不再赘述。
1.安全组内放行服务端口
这里为云服务器部署,需要先放行 8000 端口.
2.在电脑打开客户端工具cherry studio=>新添加一个接口=>提供商类型选择
OpenAI
填写API地址和密钥,API地址填写为http://公网IP:8000即可。
回到对话界面,选择添加的模型,就可以正常进行对话了
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-03-20
2025-03-16
2025-03-16
2025-03-13
2025-03-13
2025-03-11
2025-03-07
2025-03-05