AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


RAAT:通过自适应对抗和多任务学习增强RAG系统抗噪(3大类)能力!
发布日期:2024-06-08 06:15:32 浏览次数: 1796


RAG通过整合外部数据库中的知识来缓解LLM面临诸如幻觉、过时知识等问题。检索到的不适当段落会阻碍LLMs生成全面和高质量的响应。以往RAG研究通常限于有限的噪声类型,这与现实世界的检索环境不符,限制了实际应用性。

一个将RAG应用于问答的例子。模型能够通过准确的检索文本预测出正确答案。然而,当检索到的文本包含误导性或不准确的信息时它无法产生正确的答案

首先调研真实世界环境检索噪声,将其分类为三种不同类型:
  • 表面相关但缺乏正确答案的上下文(相关检索噪声:Relevant retrieval noise)。
  • 与查询无关的上下文(无关检索噪声:Irrelevant retrieval noise)。
  • 与查询主题相关但包含错误信息的上下文(反事实检索噪声:Counterfactual retrieval noise)。
不同类型检索噪声下各种模型的精确匹配(EM)得分。"Golden Context"表示LLMs在参考golden检索上下文时回答问题的情况。"No retrieval"表示LLMs无检索回答问题的情况。其他模型的实验配置是在"Golden Context"基础上引入不同类型的噪声。

提出了一种名为检索增强自适应对抗训练RAAT:Retrieval-augmented Adaptive Adversarial Training)的新型RAG方法。RAAT利用自适应对抗训练动态调整模型的训练过程,以响应检索噪声。同时,它采用多任务学习来确保模型能够内部识别嘈杂的上下文。
RAAT(Retrieval-Augmented Adversarial Training)方法概述,该方法在训练过程中结合了三种不同类型的检索噪声和golden检索上下文。

RAAT方法的核心内容:

  1. 对抗训练基础:对抗训练是一种通过引入对抗性扰动来增强模型鲁棒性的方法。它采用最小-最大优化策略,首先通过最大化过程调整输入数据以误导模型,然后通过最小化过程微调模型参数以增强对扰动的抵抗力。

  2. 数据增强类型:RAAT考虑了四种数据增强类型:仅黄金检索上下文(dag)、额外的相关检索噪声(dar)、额外的无关检索噪声(dai)和额外的反事实检索噪声(dac)。

  3. 优化问题:RAAT通过最小化损失函数来优化模型参数,同时考虑了数据增强。模型不是在所有对抗样本上更新参数,而是计算每个对抗样本的生成损失,并选择最大的损失来指导参数更新。

  4. 自适应对抗训练:RAAT通过计算每个对抗样本的生成损失来量化模型对不同噪声环境的适应性。选择具有最高生成损失的样本来指导模型参数的更新。

  5. 正则化项:为了防止模型对特定类型的噪声过度拟合,RAAT在损失函数中加入了正则化项。该正则化项通过识别每次训练步骤中四个生成损失中的最大值和最小值,并计算它们之间的平方差来减少模型对检索噪声的敏感性。

  6. 噪声意识:RAAT通过引入一个辅助任务来增强模型识别检索噪声的能力。这个辅助任务通过在LLMs下添加一个线性层,并计算每个黄金检索上下文和三个对抗样本的分类损失来实现。

  7. 多任务学习:RAAT结合了自适应对抗训练损失和分类损失,通过多任务学习框架来提升模型在存在噪声时的性能。

基于三个开放域问答数据集建立了一个基准来验证RAAT的有效性。使用RAAT微调的LLaMA2 7B模型在多样化的噪声条件下F1和EM得分有显著提高

在RAG-Bench基准测试上的实验结果。"Golden Only"表示LLMs(大型语言模型)仅咨询golden检索上下文的场景。在“Golden & ci/cr/cc”中,LLMs同时考虑golden检索上下文以及无关检索噪声/相关检索噪声/反事实检索噪声。

模型是否真正获得了对检索噪声的意识???

RAAT调优后的模型中,观察到无关噪声、相关噪声和无检索噪声样本之间的距离很小,而与反事实检索噪声样本的距离较大。特别是,反事实检索噪声对LLMs构成了最大的挑战,但在RAAT调优后,它展示了更好的聚类和表示学习结果。

T-SNE可视化的结果。在将四种类型的对抗样本(即,检索噪声)引入由不同方法调整的模型后,提取了最后一个token的隐藏状态。随后,进行了t-SNE降维、聚类和可视化处理。这种视觉表示包括三种方法,即RALMgolden、RetRobustRAAT

https://arxiv.org/pdf/2405.20978https://github.com/calubkk/RAATEnhancing Noise Robustness of Retrieval-Augmented Language Models with Adaptive Adversarial Training

推荐阅读


欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询