AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


DR-RAG:将动态文档相关性应用于问答型RAG技术!
发布日期:2024-07-19 20:02:44 浏览次数: 1756


01
概述
DR-RAG是一个两阶段的检索流程,专注于通过在问答数据集上执行多跳过程仅调用一次大型语言模型(LLM)。这种方法表明可以在答案的准确性上实现显著的提升。
研究发现,在检索过程中,需要选择对生成答案具有高度相关性和决定性影响的文档。这些文档被称为静态相关文档。
同时,还存在一些相关性较低但对答案生成过程至关重要的文档。这些文档被称为动态相关文档。
02
DR-RAG
如下方图表所示,示例查询“彼得·安德烈亚斯·海伯格的孩子的配偶是谁?”

这个查询需要检索两个最相关的文档以提供准确的答案。由于静态相关文档与查询直接相关,例如“彼得·安德烈亚斯·海伯格”和“孩子/儿子”,因此相对容易检索。
然而,检索动态相关文档存在挑战,因为它们与查询只有间接关联,例如配偶/妻子。
此外,知识库中关于配偶的大量信息可能导致动态相关文档在检索过程中排名较低。
值得注意的是,静态和动态相关文档之间存在高度相关性,例如约翰·路德维希·海伯格和他的妻子。在查询时考虑“配偶/妻子”可以促进动态相关文档的检索,从而实现准确答案的提取。
研究指出,需要在多个文档之间创造协同效应,并确立上下文相关性,这不仅仅是从单一文档中获得,而是从所有相关且适用的文档中综合得出。
DR-RAG被描述为一种多跳问答框架。这一框架在很多方面都让人联想到此前在这方面的研究工作。
DR-RAG的不同之处可能在于研究者设计的分类器,该分类器通过设定预定义的阈值来确定检索到的文档是否对当前查询有所贡献。
这一机制旨在减少冗余文档,确保检索到的文档简洁高效。
参考下图,这是DR-RAG的概览:
  • 步骤1:根据与查询的高度相关性,检索静态相关文档(SR-文档)。
  • 步骤2:将SR-文档与查询连接,以检索多个动态相关文档(DR-文档)。
  • 步骤3:单独选取每个DR-文档,并将其与查询和SR-文档结合。将这些组合输入到分类器中,以确定最相关的DR-文档。

随着RAG实现的普及,研究强调了优化与大型语言模型的交互以降低延迟和成本,以及通过代理型RAG过程综合多个文档以提供满意答案的必要性。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询