微信扫码
添加专属顾问
我要投稿
vLLM CPU版Deepseek部署血泪史,带你避开那些坑!
核心内容:
1. 从ollama转向vLLM的本地化部署背景
2. Python、gcc版本不匹配等安装障碍
3. 运行时遇到的各种报错及解决尝试
--extra-index-url https://download.pytorch.org/whl/cpu 不然装不上(亲测)
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-05
"单Agent+MCP"与"多Agent"架构对比分析(上):概念、优劣势与架构选择
2025-04-30
Nacos 3.0 正式发布:MCP Registry、安全零信任、链接更多生态
2025-04-30
Qwen3小模型实测:从4B到30B,到底哪个能用MCP和Obsidian顺畅对话?
2025-04-30
WeClone: 用微信聊天记录微调大语言模型
2025-04-30
强化微调来袭!如何让AI真正“听懂”人类需求
2025-04-30
部署运维SRE专属大模型
2025-04-29
Qwen3 一手实测
2025-04-29
MCP、RAG、Function Calling、Agent与微调如何重塑未来应用
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-30
2025-04-27
2025-04-27
2025-04-23
2025-04-20
2025-04-01
2025-03-31
2025-03-20