微信扫码
与创始人交个朋友
我要投稿
之间介绍过几种LLM+RAG框架:
1)self-RAG:引入特殊token来实现检索的控制;
2)过滤不相关检索片段:训练一个过滤模型,实现对RAG中检索片段的噪声过滤;
3)FIT-RAG:从过滤检索信息+提高检索信息+query是否需要检索判断这三个方面来优化LLLM+RAG框架;
上述三种方式的存在的缺点:1)self-RAG引入特殊token,导致训练数据标注难度加大,而且在解码中增加额外的判断成本;2)需要训练一个额外的过滤模型,如bert等,但是独立于生成的,会带来偏差;3)也需要额外训练一个判断模型,如T5,且还要对query是否进行检索信息进行判断,计算流程更为复杂。
那能不能LLM+RAG过程简化下,不要额外引入新的模型,就用一个LLM来提升生成结果?本次就分享一个从该思路来优化LLM+RAG的方法:<RankRAG: Unifying Context Ranking with Retrieval-Augmented Generation in LLMs>
其思路主要为:
1)在训练过程中就增加与生成相关的子任务训练,如检索片段的判断任务等;
2)在推理过程,可以借助LLM在子任务的结果,来辅助query的回答,进而提升整体效果;
其目的:通过fine-tunine的方式就可以让一个LLM同时具备对检索内容的质量判断和query的生成的能力,就不需要额外引入其他小模型。
上述流程图,在训练过程中,分两个阶段:
1)Stage-I:采用正常的SFT训练进行模型通用任务的对齐;
2)Stage-II:设计RankRAG指令,进一步进行微调,其中任务包括检索排序和答案生成等任务,具体如下:
在推理阶段,也是分两步:
1)第一步:是从检索器里召回top-N个相关片段,然后利用LLM对这些片段进行打分,选择top-K作为最终的检索片段;因为在训练中,让LLM具备了对片段进行打分的能力。
2)第二步:结合top-K片段和query,输入LLM做最后的回答。
总的来说,论文的核心在于在训练中加入检索相关的任务的训练,并让LLM具备对检索片段进行排序打分的能力,其不好之处:推理时候需要调两次LLM,增加了推理时间。
看看RankRAG的实验效果:
(1)在8B范围内,Llama3-RankRAG 8B在9个数据集上都取得最好的效果,甚至超过RA-DIT 65B模型;
(2)Llama3-RankRAG 70B好于Llama3-ChatQA-1.5 70B,高于平均2.5点,此外也好于chatgpt系列的RAG模型;
(3)RankRAG 在长尾数据集(PopQA)和多轮对话(2WikimQA)这类难度比较大的数据集上,相比Chat-1.5有10个点的提升,这也说明检索效果提升带来的增益。
在消融实验中:
(1)若不在推理过程进行重排,则有近3个点的下降;
(2)若不带RQA或RAR两个微调任务(训练中的第二个阶段中的任务),则有近1个点的下降;
(3)如果训练中只进行SFT模型,不进行Stage-II训练,则有10个点下降,这说明论文中设计的Stage-II指令任务的有效性。
总结一下:RankRAG框架思路比较简洁,且操作起来也很容易:就是增加一些检索相关则子任务训练,然后让LLM具备重排打分的能力,消除需要额外训练一个模型的成本,且也让检索排序和生成在模型层面保持一致。虽然在推理过程中,需要多调一次大模型,增加了推理负担,但实验来看,直接推理,不用重排,也是有一定的提升。这样在实践中:我们可以直接借鉴其Stage-II训练,可能就能有明显的提升。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21