AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


o1推理扩展的风吹到了RAG,性能飙升58.9%!
发布日期:2024-10-21 19:45:37 浏览次数: 1681 来源:PaperAgent


以往的研究主要集中在通过增加检索文档的数量或长度来扩展检索增强生成(RAG)中检索到的知识。然而,仅增加知识量而不提供进一步的指导存在一定的局限性。
为此,Google DeepMind研究了RAG推理计算扩展(Inference Scaling)情况下的性能,特别是当上下文很长时。通过应用最优配置,在长上下文LLMs上扩展推理计算可以实现高达58.9%的性能提升。

用于RAG的推理扩展策略
为了衡量推理计算,定义了有效上下文长度,即在LLM生成最终答案之前所有迭代中的输入token总数。对于大多数只调用LLM一次的方法,有效上下文长度等同于提示中的输入token数量,并受到LLM的上下文窗口限制。对于迭代调用LLM的方法,有效上下文长度可以通过策略无限扩展。
目标是理解RAG性能如何随着推理计算的扩展而变化。为此,引入了两种扩展策略:示范基础RAG(DRAG)迭代示范基础RAG(IterDRAG)

DRAG与IterDRAG的对比。IterDRAG将输入查询分解为子查询并回答它们,以提高最终答案的准确性。在测试时,IterDRAG通过多个推理步骤来扩展计算,分解复杂查询并检索文档。

  • 示范基础RAG(DRAG):DRAG利用上下文学习,通过直接从扩展的输入上下文中生成答案来利用LLMs的长上下文能力。DRAG在输入提示中整合了文档和上下文示例,使得模型能够在单次推理请求中生成对输入查询的答案。
  • 迭代示范基础RAG(IterDRAG):为了处理复杂的多跳查询,IterDRAG通过将查询分解为更简单的子查询来处理。对于每个子查询,执行检索以收集额外的上下文信息,然后用于生成中间答案。在所有子查询解决后,检索到的上下文、子查询及其答案被组合以合成最终答案。
RAG性能和推理计算扩摸

接下来重点研究揭示RAG性能与推理计算规模之间的关系,并尝试预测在不同计算约束下达到最佳性能的推理参数配置。

固定预算下的最佳性能:

对于固定的有效上下文长度预算,通过枚举不同的推理参数配置(如检索文档的数量、上下文示例的数量、生成迭代的次数)来找到最优平均指标。

最优配置的具体示例:

  • 在某个特定的最大有效上下文长度限制下,选择一个特定的文档数量,比如100篇文档。 

  • 确定在输入提示中使用多少个上下文示例,例如20个示例。

  • 对于IterDRAG,可能决定在最终生成答案之前进行最多5次的迭代。

RAG性能随文档数量和上下文示例的变化而变化a)报告了跨数据集的平均指标值,而在(b和(c中,每条线代表在逐渐增加文档/示例的一致配置下的标准化性能。

整体性能:

通过扩展最大有效上下文长度,DRAG和IterDRAG的性能一致地提升,表明增加计算预算对RAG性能是有益的。

特别地,IterDRAG在更长的有效上下文长度下(例如超过128k tokens)展现了比DRAG更有效的扩展。

不同方法在不同最大有效上下文长度 LmaxLmax(即所有迭代中的输入token总数)下的最佳性能。ZS QA和MS QA分别指one shot QA和many shot QA。对于不随 LmaxLmax 增加而进一步扩展的方法。将每个 LmaxLmax 的最佳结果加粗显示。

RAG的推理扩展法则:

通过分析不同有效上下文长度下的性能变化,提出了RAG性能随着推理计算规模的增加而近乎线性提升的观察结果,这被称为RAG的推理扩展法则

  1. 线性关系: RAG性能随着推理计算规模的增加而近乎线性提升,这种关系被称为RAG的推理扩展法则。

  2. IterDRAG的扩展性: 对于超过10^5个token的上下文长度,IterDRAG通过交替检索和迭代生成继续有效扩展。

  3. 性能增益递减: 当有效上下文长度超过1M个token时,最优性能的增益逐渐减少,这可能归因于长上下文建模的局限性。

跨数据集的标准化性能与有效上下文长度的对比。每条线代表一个固定的配置,通过改变文档数量来进行缩放。红点表示最优配置,虚线显示拟合结果。观察到的最优性能可以通过与有效上下文长度的线性关系来近似。
MuSiQue上标准化性能与有效上下文长度的对比。每条线代表一个固定的配置,通过整文档数量来进行缩放。红点和虚线代表最优配置及其拟合结果。标准RAG在104104个token时早早达到平稳状态,相比之下,DRAG和IterDRAG随着有效上下文长度的增长显示出近乎线性的提升。

使用不同方法评估Gemini 1.5 Flash的准确率:零-shot QA、多-shot QA、RAG(带有最佳数量的文档)、DRAG和IterDRAG在基准QA数据集上的表现。通过扩展推理计算(最多5M个token),DRAG持续优于基线,而IterDRAG通过交错检索和迭代生成改进了DRAG。

https://arxiv.org/pdf/2410.04343Inference Scaling for Long-Context Retrieval Augmented GenerationGoogle DeepMind



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询