微信扫码
添加专属顾问
我要投稿
深入了解本地部署DeepSeek的安全风险及加固方案,保障AI技术安全落地。核心内容:1. DeepSeek本地部署的安全风险分析2. Ollama服务配置导致的安全问题3. 实施安全自查与加固的具体方法
按照我写的文章DeepSeek被攻击事件简要分析和建议,为了保护数据安全 提供本地部署方案。无需担心。当时考虑到DeepSeek和Ollama的安全性,我编写的方案:只允许127.0.0.1可以访问ollama,不存在安全风险。如果参照其他部署教程,需要做安全加固。
本篇文章,欢迎转载。
简要介绍
随着人工智能技术的快速发展,AI大模型DeepSeek部署需求日益增长。然而,在享受AI技术带来便利的同时,我们也不能忽视其背后潜在的安全风险。
近期有关DeepSeek本地部署存在安全风险事件的报道引发了关注,其中Ollama服务作为一个重要的开源框架,因其配置导致的安全风险受关注。本文将分析这一问题,并提供安全加固方案。
安全风险原因
什么是Ollama?
Ollama是一个开源框架,用于快速部署和运行大型语言模型(LLM)。用户可以轻松、方便地在本地、公有云、私有云部署、运行AI模型。然而,这种便利性也带来了潜在的安全风险。
安全风险的核心问题
有些部署Ollama服务将IP地址绑定到0.0.0.0地址,并开放TCP 11434端口。这意味着任何能够访问该IP地址的,都可以通过网络连接到你的模型。
攻击者可以利用以下方式,发现暴露在互联网上Ollama服务端口:
使用网络空间测绘、漏洞扫描、端口扫描工具等。
安全风险:暴露在互联网上Ollama服务端口
方法一
检查Ollama启动时执行命令:
set OLLAMA_HOST=0.0.0.0
方法二
检查Ollama的config配置文件
"host":"0.0.0.0"
方法三
检查系统环境变量
OLLAMA_HOST
0.0.0.0
Windows Defender 防火墙
右键"入站规则" → "新建规则"
选择"端口" → TCP → 特定本地端口:11434
选择"阻止连接" → 应用到配置文件
Debian Ubuntu Kali 操作系统
使用 iptables
sudo iptables -A INPUT -p tcp --dport 11434 -j DROP
RedHat CentOS 操作系统
使用 firewall-cmd
sudo firewall-cmd --permanent --add-rich-rule='rule family="ipv4" port port="11434" protocol="tcp" reject'
sudo firewall-cmd --reload
总结
通过实施以上安全加固措施,可以显著降低本地部署DeepSeek服务的安全风险,构建一个更加安全可靠的AI模型运行环境。以下是我个人的几点建议:
1、遵循最小化原则:仅开放必要的网络端口,并限制访问范围。
2、定期检查与更新:保持对Ollama版本的持续关注,即时更新版本。
3、多层防护策略:结合防火墙、IP白名单等手段,构建多层次安全防护体系。
希望本文能为您提供有价值的参考,在享受AI技术便利的同时确保安全性。如需进一步的技术支持、定制化方案,请随时与我联系。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-11
2024-07-09
2024-07-26
2025-01-27
2025-02-05
2025-02-01
2025-02-25
2025-02-16
2025-02-10
2025-02-10
2025-02-09
2025-02-05
2025-01-24
2025-01-22