微信扫码
和创始人交个朋友
我要投稿
开源趋势下,DeepSeek引领大模型企业新选择。对比开源与闭源大模型的成本与应用场景。核心内容:1. DeepSeek带动的开源热潮及其影响2. 开源与闭源大模型定义及其差异3. 客户服务场景下开源与闭源大模型的成本对比
DeepSeek正在带动一场开源热潮。
2月14日,百度宣布6月30日将会开源文心大模型系列。
百度开源之后不久,OpenAI CEO山姆·奥特曼(Sam Altman)也在X平台上发起投票,询问网友下一个开源项目做什么比较好。这则消息透露出OpenAI也有意开源某个大模型项目。
在这之前,无论是百度还是OpenAI,都曾是闭源大模型的坚定支持者。只是在DeepSeek的带动下,开源越来越成为一种趋势,成为更多大模型企业的选择。
但这也给应用大模型的企业带来一个问题,开源和闭源会有什么不同?具体到客户服务场景,开源和闭源应该如何选择?
所谓开源大模型,通常指在开放源代码协议下发布的大模型,它允许软件的源代码被公众自由地使用、研究、修改和分发,比如DeepSeek。
相应地,闭源大模型就是指源代码和内部工作机制不对外公开的大模型。比如GPT-4,企业想要使用相关能力需要向OpenAI申请,并支付一定费用。
关于开源大模型,大家最大认知可能就是“免费”,这也是开源大模型最有竞争力的地方之一。
我们举个例子,如果以私有化的方式部署一套客户服务系统。
采用开源大模型的情况下,企业需要支付大量前期成本,包括购买/租用服务器、建设和维护数据中心,以及雇佣相关人员对模型进行调优和部署等等。
但这些费用只存在于前期,相关建设完成后,企业无需再为之后的模型使用付费。但如果使用闭源大模型,则在前期投入的基础上,后续还要一直按照Token用量为模型付费。
如果在公有云或第三方平台上部署客户服务系统。
使用开源大模型的情况下,企业不需要为模型本身支付费用,因为遵循开源协议,模型是免费的。企业只需要向云厂商支付云服务费用,比如计算资源(如CPU、GPU)、存储、数据传输和可能的额外服务(如负载均衡、自动扩展等)。
使用闭源大模型的情况下,企业还需要为模型支付费用,比如OpenAI-o1模型的输入价格为15美元/百万tokens,输出价格为60美元/百万tokens。
总结来说,使用开源大模型无需为模型付费,只需要支付算力、存储等相关成本;而闭源大模型则可能在相关费用的基础上,加上模型的许可或使用费用。
即在如金融、电商、银行等客户服务场景,客户咨询量足够大的情况下,使用开源大模型进行私有化部署后,长期使用成本更低。但如果客户咨询量不多,使用公有云会更加划算。
对于企业应用而言,关键在于找到其中的平衡点。
那么仅考虑模型使用效果,开源大模型是不是比闭源大模型更好?答案也不一定。
从应用企业的角度来讲,开源大模型除了成本之外,还有这些优势:
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-23
官方报告:DeepSeek-V3 模型是如何炼成的!
2025-02-23
16.3K star! 微软开源AI Agent神器 OmniParser,让AI成为你的电脑操作专家
2025-02-23
DeepSeek本地最轻量化部署,支持联网以及知识库
2025-02-22
本地部署Ollama与DeepSeek R1:安装、优化与应用实测
2025-02-22
DeepSeek R1 全系列模型部署指南
2025-02-22
DeepSeek 满血版在 IDEA 中怎么用?手把手教程来了
2025-02-22
开源力量!轻松上手 Xinference:让DeepSeek-V3/R1满血私有化推理触手可及
2025-02-22
Cursor 如何使用本地搜索获取海量信息
2025-01-01
2024-07-25
2024-05-06
2025-01-21
2024-09-20
2024-07-20
2024-08-13
2024-06-12
2024-12-26
2024-07-11
2025-02-23
2025-02-18
2025-02-15
2025-02-15
2025-02-12
2025-02-07
2025-01-22
2025-01-16