AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


15 种高级 RAG 技术,值得收藏!
发布日期:2024-08-25 21:36:12 浏览次数: 1645


一篇报告,介绍了 15 种高级 RAG(检索增强生成,Retrieval-Augmented Generation)技术,可以从预检索、检索、后检索和生成四个环节来细分。

值得学习。

15 种高级 RAG 技术

1.增加信息密度(Increase Information Density Using LLMs)

利用 LLMs(大语言模型)处理、清理和标记数据,以提高信息密度,从而减少生成模型所需的上下文窗口大小,降低成本并提高响应准确性。

就像我们在准备考试时,把一本教科书浓缩成一个简单的笔记,只保留最重要的知识点。这样复习起来更高效。

2.应用分层索引检索(Apply Hierarchical Index Retrieval)

利用文档摘要创建多层索引,优先检索与查询最相关的摘要部分,再深入到详细文档,提高检索效率。

比如说先快速浏览一本书的目录或摘要,找到相关章节,然后再仔细阅读。这比从头到尾读整本书要快得多。

3.改善检索对称性(Improve Retrieval Symmetry with Hypothetical Question Index)

生成每个文档的假设问答对,并将这些问答对作为检索的嵌入对象,从而提高查询与文档之间的语义相似度,减少检索时的上下文丢失。

这个比较容易理解,假如你在问问题前已经知道了一些可能的答案,直接找到相关的答案就容易多了,而不是去海量信息中寻找,类似 few-shot 的方式

4.使用 LLMs 去重信息(Deduplicate Information in Your Data Index Using LLMs)

通过 LLMs 对嵌入空间中的数据块进行去重,将重复的信息浓缩成更少的、更有用的数据块,提高响应的质量。

5.测试和优化分块策略(Test and Optimize Your Chunking Strategy)

根据具体情况测试不同的分块策略,通过调整数据块大小和重叠率等参数,找到最佳的嵌入方式,以提高检索效果。

不断的调整,优化,迭代,总能找到适合的,有点像深度学习的调参

6.优化搜索查询(Optimize Search Queries Using LLMs)

特别是针对对话系统,使用 LLMs 根据系统的搜索需求优化用户的查询语句,确保搜索系统能够更准确、高效地找到相关信息。

一个很懂搜索引擎的人帮你改写搜索关键词,这样你更容易找到你想要的结果。

7.使用假设文档嵌入修正查询与文档的非对称性(Fix Query-Document Asymmetry with Hypothetical Document Embeddings (HyDE))

在检索前,生成一个与用户查询相关的假设文档,并使用这个文档的嵌入来替代用户的查询进行语义搜索,以提高检索的准确性。

8.实施查询路由或 RAG 决策模式(Implement Query Routing or a RAG Decider Pattern)

在多数据源系统中,使用 LLMs 决定将查询路由到哪个数据库,或决定是否需要进行 RAG 检索,从而降低成本,提高系统效率。

根据目的地选择走哪条路,而不是每次都先走到中央车站再决定。

9.重新排名以优化搜索结果(Prioritize Search Results with Reranking)

利用重排模型优化检索结果的优先级,将最相关的文档排在最前,以提高 RAG 系统的表现。

这就像是当你在网上购物时,把最合适的商品排在搜索结果的最前面,避免翻很多页。

QAanything 证明重排是个很有必要的步骤。

10.使用上下文压缩优化搜索结果(Optimize Search Results with Contextual Prompt Compression)

通过 LLMs 对检索到的信息进行处理、压缩或重新格式化,只保留生成最终响应所需的关键信息。

要点提炼出来,避免说一堆废话。

能够降低成本,减少无关紧要的 token。

11. 使用纠正 RAG 对检索文档打分和过滤(Score and Filter Retrieved Documents with Corrective RAG)

使用一个经过训练的模型对 RAG 结果进行打分,将不相关或不准确的文档过滤掉,只保留有用的部分。

这就像是请一个专家帮你筛选资料,只留下真正有用的信息。而不是用所有召回的文档 summary。

12. 通过链式思维提示屏蔽噪音(Tune Out Noise with Chain-of-Thought Prompting)

利用链式思维提示(Chain-of-Thought Prompting)提高 LLM 在有噪音或无关信息情况下给出正确答案的概率。

13. 让系统具备自我反思能力(Make Your System Self-Reflective with Self-RAG)

通过训练模型生成反思标记,判断是否需要检索或修正生成的内容,从而提高生成内容的质量和准确性。

和人的思考方式意义昂,会先想一想有没有漏掉什么信息,或者之前的判断是不是有问题,然后再做出最终决定。

大模型都是在模拟人脑的行为。

14. 通过微调忽略无关上下文(Ignore Irrelevant Context Through Fine-Tuning)

通过微调模型,增强其在 RAG 中的表现,使其能够忽略无关的上下文,提高对相关信息的响应能力。

微调是一个非常必要的方式,针对某些垂直领域,给模型灌输对应的风格约束,领域知识。

15. 使用自然语言推理让 LLMs 更好地应对无关上下文(Use Natural Language Inference to Make LLMs Robust Against Irrelevant Context)

使用 NLI 模型过滤掉无关上下文,仅在使用问题和 LLM 生成的答案被分类为蕴含时,才使用检索到的上下文。

一些简单的结论

  • 信息密度:使用 GPT-4 提取信息后,信息量显著减少,信息密度提高。例如,原始 HTML 有 55,000 个令牌,去除 CSS 和 HTML 标签后有 1,500 个令牌,使用 GPT-4 处理后进一步减少到 330 个令牌。

  • 检索效率:层次索引检索和假设问题索引显著提高了检索效率和结果的相关性。

  • 分块策略:1,000 字符分块与 200 字符重叠的策略表现最佳,得分为 4.34。

  • 假设文档嵌入:使用假设文档嵌入进行语义搜索,提高了检索结果的准确性。

  • 查询路由和 RAG 决策模式:识别出不需 RAG 查找的查询,避免了不必要的计算资源消耗。

  • 重新排序和压缩:重新排序搜索结果和使用 LLM 压缩生成提示,提高了生成响应的质量和效率。

  • 评分和过滤:使用 T5-Large 模型评分和过滤 RAG 结果,显著提高了响应的准确性。

End


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询