微信扫码
添加专属顾问
我要投稿
掌握vLLM和DeepSeek的规模化部署秘诀。 核心内容: 1. vLLM如何简化个人用户与前沿AI技术的距离 2. DeepSeek免费界面与企业级应用的挑战对比 3. 企业在规模化部署vLLM时面临的“不可能三角”难题及解决方案
什么是 vLLM
规模化部署 vLLM 的难点
大规模参数量:LLM 之所以被称为“大”语言模型,很大程度上是因为其拥有极其庞大的参数规模,导致模型的体积通常可达数十至数百 GB。这种巨大的模型体积在服务启动时带来了模型文件下载、GPU 加载漫长的问题,需要设计专门的加速机制来应对。同时也额外增加了日常的模型上传、下载、调试和发布等产品迭代流程的额外时间成本。
高效推理能力:除了克服大镜像大模型带来的冷启动问题,LLM 还必须满足实时性要求极高的交互需求,能够在数秒甚至毫秒级别内返回推理结果,并确保每轮对话都能持续稳定高效地进行。这依赖 vLLM 与内嵌模型的交互能否合理利用缓存数据,维持对话的连续性和响应的速度。
上下文理解:在多数应用场景中,LLM 通过对话提供推理服务,因此服务必须确保每行对话之间的连贯性。避免每次对话被分配到不同的后端资源导致上下文信息丢失。LLM 同时需要稳定的长连接,为用户提供一个持久的交互窗口。这意味着底层系统必须能够有效地管理和协调众多底层资源生命周期,确保对话的连贯性和稳定性。
在构建和运营大规模显卡集群以支持 vLLM 时除了需要解决上述的 LLM 推理的性能及稳定性以外,还要关注成本。其中的主要难点在于底层显卡资源利用率的精确管控,资源使用的均衡性,以及显卡本身的高昂费用:
自购显卡的额外开销:自行采购显卡不仅初期投入大,而且由于市场上不同类型的显卡供应不稳定,导致资源供给不可预期。此外,显卡资源相对紧缺的情况下,企业可能需要额外支出用于囤积显卡,进一步增加了成本负担。
总结上述的各项问题,都可以将其归类为“不可能三角”:性能、成本与稳定性三者难以同时满足。具体来说:
性能与成本的优先:在追求高性能推理和低成本的情况下,系统的稳定性可能会受到挑战,如提前购置的 GPU 数量不足导致资源过分挤兑以及突发流量带来的资源压力。
为了高效管理和优化 vLLM 服务,企业在日常开发与运维中需应对以下几个关键领域:
版本控制与兼容性:确保不同版本之间的兼容性和可追溯性,便于回滚和修复问题,这对企业的技术栈提出了更高的要求。
FC GPU 预留实例闲置计费
FC 也天然支持高效的开发与运维能力,提供日常迭代、模型管理、多维度可观测指标、仪表盘以及运维流程,确保企业级产品的完整性和可靠性。除此之外,在请求调用方面,FC 也提供多样的请求导入机制:
这些特性使得企业可以专注于业务逻辑的创新,而不必担心底层技术实现的复杂性。
部署方式
1. 上传 vLLM 镜像:使用官方提供的 vLLM Docker 镜像,无需对镜像进行任何修改,将该镜像上传至阿里云容器镜像服务(ACR)。
2. 创建函数:登录阿里云控制台,进入函数计算 3.0 管理页面,开始创建一个新的 GPU 函数,并选择适合的运行环境和配置。
3. 配置启动命令:(为了保证服务的稳定性,需添加 --enforce-eager 参数以关闭急切模式)。
python3 -m vllm.entrypoints.openai.api_server --enforce-eager --model ${NAS中的模型路径} --trust-remote-code --served-model-name ${LLM模型} ...其他参数配置... --port ${函数暴露端口}
更多参数配置可参考 vLLM 官方文档,根据具体需求调整配置。
python3 -m vllm.entrypoints.openai.api_server --model /prod/models --trust-remote-code --served-model-name Qwen/Qwen-14B-Chat --gpu-memory-utilization 0.9 --max-model-len 4096 --port 8080
5. 完成函数创建:按照上述步骤完成所有配置后,点击“创建”按钮,等待系统完成初始化。
6. 指定模型挂载路径:为了实现模型的集中管理和更新,我们强烈建议用户将模型存储在 NAS 中。NAS 可以自动挂载到 FC 函数的 vLLM 服务实例中,从而实现模型的无缝集成。
7. 配置预留实例并开启闲置计费:创建所需数量的预留实例并按需配置定时预留。
8.(可选)绑定自定义域名:通过绑定自定义域名,实现直接通过该域名进行 HTTP 调用,对外提供推理服务。
vLLM 应用集成
如果您希望进一步包装 vLLM,可以将自定义域名轻松嵌入到上层服务中并封装调用。企业无需关心底层 vLLM 实例的启动、调度、负载均衡以及亲和性等细节,FC 能够确保服务的高效与稳定运行。
对于不需要观察 vLLM 实例的用户,可以直接使用基于 FC 的模型应用平台(CAP)进一步抽象部署过程,使您能够快速、轻松地将vLLM应用部署上线,大大节省了时间和精力
总结
通过 FC GPU 预留实例的闲置计费功能,企业用户能在充分利用 vLLM 的强大功能的同时找到成本、性能、稳定的最佳平衡点,并保持开发和运维的高效性。无论是将 FC vLLM 函数直接对外提供服务,还是深度集成到现有系统中,或是通过 CAP 还是魔搭来简化部署,都能找到满足您业务需求的最佳实践。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-12
Manus爆火的背后,Agentic AI产品如何构筑持久的竞争优势?
2025-03-12
老板格局不大,但编码能力不错的Claude 3.7正式发布
2025-03-12
一文让你彻底了解「AI互联互通的标准MCP」
2025-03-12
OpenAI深夜发布全新Agent工具:两大杀器登场,感觉可以手搓Manus了
2025-03-12
联网/用电脑... OpenAI 新 Agent 套件全解析(另附:发布会没说的 30+ 要点)
2025-03-12
OpenAI 重磅发布:全新 AI Agent构建工具,让 AI 应用开发更简单、更强大
2025-03-12
openai发布新工具,打造AI agent平台,创造更多的manus
2025-03-12
LLM-Agent 用户界面:以人为中心的界面设计
2024-08-13
2024-06-13
2024-09-23
2024-08-21
2024-05-28
2024-07-31
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-03-12
2025-03-12
2025-03-10
2025-03-10
2025-03-10
2025-03-10
2025-03-08
2025-03-08