微信扫码
添加专属顾问
我要投稿
AI大模型结合本地知识库可能泄露隐私,本文为你揭开背后的技术真相,提供实用防护指南。 核心内容: 1. AI大模型与本地知识库结合的风险分析 2. 通过实验揭示敏感信息泄露途径 3. 数字时代如何防范AI泄露隐私的实用建议
当「贴心助手」变成「泄密特工」,只需一个 RAG 流程——本文通过复现 Cherry Studio 与 LM Studio 的联动实验,揭露本地知识库中敏感信息可能通过向量化建模、提示词拼接两大漏洞流向云端服务器的技术真相,并附赠一份「数字时代防 AI 背刺指南」。
你选择本地目录作为知识库,目录内有 1 个含有密码的文本文件;
然后调用 DeepSeek 的 API 接口进行对话搜索,你的密码会被传到 DeepSeek 的服务器吗?
准备 2 个大模型的客户端软件
LM 是 Language Model,语言模型的缩写
在 LMStudio 中,发现模块里面下载 2 个模型,在开发者里面选择下载好的模型进行部署
text-embedding-bce-embedding-base_v1
deepseek-r1-distill-qwen-7b
向量化: 就像用数学滤镜分析世界的本质特征,这种向量化思维不仅用于图像处理,在自然语言处理(词向量)、语音识别(声纹特征)等领域都遵循相同的底层逻辑,即将现实世界转化为可计算的数学特征。
点设置 ->模型服务 ->LM Studio,添加模型,输入上面的模型 ID,API 地址使用默认的。
由于本地 LM Studio 没有认证,API 密钥随便输入什么
假设我本地有个
个人知识库
的目录,里面有个帐号.txt
,里面有帐号密码信息如下:
在助手内,点击新建对话,选择本地的 deepseek-r1-7b 模型,在底部选择刚才创建的 测试知识库
,
您的Google邮箱账号信息如下:
1. **账户用户名**:[xtool@gmail.com](mailto:xtool@gmail.com) [^1]
2. **账户密码**:xtool2025 [^1]
如果您在寻找其他服务的访问信息,请提供更多信息以便进一步协助。
答案揭晓:本地知识库的内容,AI 模型都能搜到,如果这个大模型是公有云的,那我的密码已经泄漏了。
按 RAG 技术的流程,其中 2 个节点会导致数据泄漏。
日志位置:
tail -200f /home/用户名/.lmstudio/server-logs/2025-02/2025-02-28.1.log
目前大模型在本地知识库搜索的基础原理基本都一致,大家知道原理,注意保护自己的隐私安全,避免被忽悠
AI 大模型有 3 种使用方式
只有私有云服务/客户端部署的模型能完全避免隐私泄漏,但是由于本地大模型耗费算力,复杂任务不太适合,单论次的小任务可以考虑。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-20
谈谈RAG 的四个级别
2025-04-20
大模型能像专业分析师一样提取用户需求吗?
2025-04-19
基于Embedding分块 - 文本分块(Text Splitting),RAG不可缺失的重要环节
2025-04-19
RAG升级-基于知识图谱+deepseek打造强大的个人知识库问答机器人
2025-04-19
RAG vs. CAG vs. Fine-Tuning:如何为你的大语言模型选择最合适的“脑力升级”?
2025-04-19
低代码 RAG 只是信息搬运工,Graph RAG 让 AI 具备垂直深度推理能力!
2025-04-18
微软PIKE-RAG全面解析:解锁工业级应用领域知识理解与推理
2025-04-18
AI 记忆不等于 RAG:对话式 AI 为何需要超越检索增强
2024-10-27
2024-09-04
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-04-20
2025-04-19
2025-04-18
2025-04-16
2025-04-14
2025-04-13
2025-04-11
2025-04-09