微信扫码
添加专属顾问
我要投稿
深度体验双卡RTX 5090,探索AI推理框架与性能极限。 核心内容: 1. 双卡RTX 5090工作站PC配置概览 2. AI推理框架选择:Ollama、SGLang、vLLM对比 3. 性能实测与兼容性问题解析
最近有幸拿到了一台配备双卡 NVIDIA GeForce RTX 5090 显卡的工作站PC,这无疑是许多追求极致性能的开发者梦想装备。不过,新硬件的到来往往伴随着一些挑战,尤其是在软件适配和性能表现方面。
通过销售渠道了解到,目前国内市场上暂时还没有涡轮散热版的 RTX 5090,我们拿到的是风扇版。这意味着在多卡配置时需要特别注意散热和空间。
在本文中,我们将分享在 Ubuntu 系统下配置这台双卡 5090 机器进行 AI 推理的实践过程,重点探讨大家可能关心的几个问题:用什么推理框架?性能如何?是否存在传闻中的性能限制? 这也是一次深度的体验和实测。
首先,简单介绍一下我们的测试平台配置:
系统环境:
nvidia-smi 确认两张 RTX 5090 均被正确识别,CUDA 12.8 环境就绪。
拿到新卡,自然要跑一下 AI 模型。但面对新硬件,推理框架的选择至关重要。哪个框架能无缝衔接,哪个又需要我们“动手”解决兼容性问题呢?
好消息是,Ollama 已经支持使用 RTX 5090 进行推理。配置过程非常简单,对于想快速上手体验的用户来说是首选。
根据我们的测试,SGLang 目前最高支持到 CUDA 12.4。因此,SGLang 暂时无法直接在 RTX 5090 上使用。希望后续版本能尽快适配。
vLLM 是一个非常流行的推理框架,但其最新发布版(如 0.8.2)并不直接支持 RTX 5090 的 sm_120 计算能力。
#CUDA版本低报错:
RuntimeError: CUDA error: no kernel image is available for execution on the device
#使用PyTorch2.6.0报错:
NVIDIA GeForce RTX 5090 with CUDA capability sm_120 is not compatible with the current PyTorch installation.
The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_70 sm_75 sm_80 sm_86 sm_90.
If you want to use the NVIDIA GeForce RTX 5090 GPU with PyTorch, please check the instructions at https://pytorch.org/get-started/locally/
解决方案: 需要自行编译 vLLM。这需要满足特定条件:使用 PyTorch 的 Nightly 版本,并确保 CUDA 版本为 12.8。这对环境配置和编译经验有一定要求,我们在配置相对较低的机器上手动编译未能成功。
小结: 对于 RTX 5090 用户,目前最便捷的推理框架是 Ollama。如果你是 vLLM 的深度用户且具备编译能力和耐心,可以尝试自行编译以获得最佳性能。
既然 Ollama 支持良好,我们便使用它加载 deepseek-r1:32b 模型进行了初步的性能测试。
启动命令:
ollama run deepseek-r1:32b --verbose
从初步测试看,单张 RTX 5090 在 Ollama 下运行 32B 模型的性能表现令人满意。nvtop 监控显示单卡工作状态良好。
这是本次深度体验的核心环节。此前,根据 Chiphell 论坛等渠道的消息,针对中国市场的 RTX 5090D 版本被曝存在一些限制,例如:
那么,我们手上这张标准版的 RTX 5090(非 D 版)在国内使用时,是否也存在这些令人担忧的问题呢?我们设计了以下压力测试来对其进行严格的实测验证:
# 确保 Ollama 可以使用两张卡 (GPU 0 和 1)
CUDA_VISIBLE_DEVICES=0,1 ollama run deepseek-r1:70b --verbose
pip install 'evalscope[app,perf]' -U -i https://mirrors.aliyun.com/pypi/simple/
git clone https://github.com/wilicc/gpu-burn
cd gpu-burn
make
# 向 Ollama (运行 70b 模型) 发起并行推理请求
evalscope perf --parallel 8 --url http://127.0.0.1:11434/v1/chat/completions --model deepseek-r1:32b --log-every-n-query 10 --connect-timeout 600 --read-timeout 600 --api openai --prompt '写一个科幻小说,不少于2000字' -n 20
# 在 CPU 核心 0 和 1 上运行 gpu-burn,持续 360 秒,压榨 GPU 计算单元
taskset -c 0-1 ./gpu_burn 360
在长达 3 分钟的持续高强度压力测试下(结合 Ollama 70b 模型跨卡推理、evalscope 并发请求、gpu-burn 极限计算):
本次双 RTX 5090 的深度体验为我们带来了不少有价值的信息。对于计划在 Linux 环境下利用双 RTX 5090 进行 AI 工作的朋友们,目前来看:
希望这次的双 RTX 5090 深度体验和实测,特别是关于框架选择和性能限制的验证,能为你的决策提供有价值的参考。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-03-30
2024-05-09
2024-07-23
2024-07-07
2025-02-12
2024-07-01
2024-06-24
2024-06-23
2024-10-20
2024-06-08
2025-04-21
2025-04-13
2025-04-11
2025-04-03
2025-03-30
2025-03-28
2025-03-26
2025-03-13