微信扫码
添加专属顾问
我要投稿
探索RAG与DeepSeek的结合潜力,深入了解技术适配性和实践案例。 核心内容: 1. RAG技术逻辑及其挑战,以及DeepSeek的优势与局限 2. DeepSeek与RAG结合的现状和优化方向 3. 法律领域实验案例分析,探讨技术适配性
近年来,检索增强生成(Retrieval-Augmented Generation, RAG)成为大语言模型(LLM)应用中的热门技术,它通过结合外部知识库弥补了模型的知识局限。而DeepSeek作为一个以推理能力见长的新兴模型,与RAG的结合似乎是一个充满潜力的方向。然而,这种组合真的能继续走下去吗?锦上添花?本文将从技术现状、实践案例和未来趋势三个维度,带你一探究竟。
为了更直观地理解这种组合的效果,我们来看一个具体的实验:SkyPilot团队在法律领域的RAG尝试。
用两个模型为数据集生成嵌入,并组成两个向量数据库。然后,我们对两个模型使用相同的查询,并在相应模型生成的向量数据库中找到前 5 个最相似的嵌入。
上表中,DeepSeek R1的检索结果明显更差,这是为什么呢?
我们认为根本问题在于 DeepSeek-R1 的训练方式。DeepSeek-R1 主要被设计为推理引擎,侧重于顺序思维和逻辑连接。这意味着 DeepSeek-R1 不会将文档映射到语义空间中。
相比之下,Qwen2 模型变体( gte-Qwen2-7B-instruct )专门针对语义相似性任务进行训练,创建了一个高维空间,其中概念相似的文档紧密聚集在一起,而不管具体措辞如何。
这种训练过程的差异意味着 Qwen 擅长捕捉查询背后的意图,而 DeepSeek-R1 有时会遵循导致主题相关但实际上不相关的结果的推理路径。
除非 DeepSeek-R1 针对嵌入进行了微调,否则不应将其用作 RAG 的检索嵌入模型。
推理与检索的边界在哪里?
当前趋势是将推理能力(Think)更多放在生成阶段,而非检索阶段。例如,O1 Embedder尝试在嵌入模型中加入“思考”步骤,但效果有限且速度慢。相比之下,DeepSeek R1通过生成时的递归推理(见[r1-reasoning-rag]能在复杂问题上实现信息筛选与合成,或许是更高效的路径。
用户体验的转变
一个有趣的现象是,用户对“推理时计算”(Test-Time Compute)的接受度在提升。正如https://mp.weixin.qq.com/s/-pPhHDi2nz8hp5R3Lm_mww所说,人们愿意为了高质量结果等待更长时间。这种“延迟满足”观念,可能为DeepSeek+RAG的复杂推理模式打开新空间,尤其是在专业领域。
技术演进的方向
DeepSeek+RAG并非灵丹妙药,但也绝非无路可走。在需要强推理和高可追溯性的任务中(如法律咨询),它仍有发展空间。关键在于:
未来,随着模型能力提升和用户需求变化,DeepSeek+RAG的组合可能会找到更广阔的舞台。你认为这种技术还有哪些可能性?欢迎留言讨论!
引用:
https://blog.skypilot.co/deepseek-rag/ https://arxiv.org/pdf/2502.07555 https://github.com/deansaco/r1-reasoning-rag
{
"target":"简单认识我",
"selfInfo":{
"genInfo":"大厂面试官,中科院自动化所读研(人工智能)ing,从事数据闭环业务、RAG、Agent等,承担技术+平台的偏综合性角色。善于调研、总结和规划,善于统筹和协同,喜欢技术,喜欢阅读新技术和产品的文章与论文",
"contactInfo":"abc061200x, v-adding disabled",
"slogan":"简单、高效、做正确的事",
"extInfo":"喜欢看电影、喜欢旅游、户外徒步、阅读和学习,不抽烟、不喝酒,无不良嗜好"
}
}
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-10-27
2024-09-04
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-04-01
2025-04-01
2025-03-30
2025-03-28
2025-03-27
2025-03-27
2025-03-25
2025-03-19