AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


API调用大模型如此方便,为何企业还要私有化部署大模型?
发布日期:2024-06-06 07:07:51 浏览次数: 2156


【点击】加入AI技术交流群

大家好,我是程序锅。

直接通过网页API调用大模型确实方便快捷,尤其对于那些追求效率、希望快速集成AI功能的项目来说,云端服务是个不错的选择。但为啥有些企业和个人还琢磨着要把这些大模型搬到自家服务器上,搞个本地部署呢?

隐私保护

想象一下,如果你的公司处理的是客户敏感信息或者商业机密,直接把数据上传到云端处理,总有点担心信息外泄吧。本地部署就能让数据在内部流转,相当于给敏感信息加了个保险箱。

从国家层面来说,为什么国外ChatGPT这么厉害了,国家还要花大力气搞国产大模型?

因为大模型技术的飞速发展,会让其成为了重要敏感数据的诱捕器,ChatGPT将用户输入纳入训练数据库,用于改善ChatGPT,就能够利用大模型获得公开渠道覆盖不到的中文语料,掌握我们自己都可能不掌握的“中国知识”。所以必须搞国产大模型,不能通过API调用。

从行业层面说,比如用电行业,你想通过大模型生成一个用电分析报告,直接将生产数据通过API调用的方式访问大模型,一旦中间某个环节被监听或者泄露,那就是非常大的事故。

定制化和控制权

每个企业都有自己的一套流程和偏好,云端模型虽然通用,但可能不够贴身。本地部署就灵活多了,你可以按照自家的需求调整模型,训练它更好地理解行业术语,甚至优化算法来提升特定任务的效率,这样一来,模型就像是为你量身定做的。此外,再结合上一些前端和后端权限控制功能,就像自己做了一套完整的大模型应用。

这一点在toB场景非常常见。一般国企或者政府单位基于大模型做应用,一定是本地私有化部署的,原因有很多,咱就不细说了。

稳定性与响应速度

网络延迟、服务提供商的稳定性都是云端服务绕不开的问题。特别是一遇到高峰期,排队等待响应那就G了。本地部署就能确保服务的稳定性和低延迟,这对于要求即时反馈的场景非常重要。比如智能客服场景,你的QPS上去了,仍采用远程API调用,那服务会不会挂心里一点底都没有。比如你所在的环境可能网络不稳定或者压根儿没网,那也必须要本地部署。

ollama使用

现在本地部署大模型也不是难事。推荐使用开源工具ollama

像启动镜像一样本地下载运行大型语言模型

下载模型

Ollama 支持的模型列表见:https://ollama.com/library

ollama pull llama3

启动服务

如果你装好了ollama,启动模型服务只需执行如下命令:

Model Parameters Size Download
Llama 3 8B 4.7GB ollama run llama3
Llama 3 70B 40GB ollama run llama3:70b
Phi-3 3.8B 2.3GB ollama run phi3
Mistral 7B 4.1GB ollama run mistral
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b
Solar 10.7B 6.1GB ollama run solar


击】加入AI技术交流群



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询