AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


RAFT:一种适应特定领域RAG的大模型训练新方法!
发布日期:2024-04-11 22:38:26 浏览次数: 1995 来源:PaperAgent


对大量文本数据的语料库进行大型语言模型(LLMs)的预训练已经成为一种标准范式。当将这些LLMs用于许多下游应用时,通常还会通过基于RAG的提示或微调,将新知识(例如,时效性新闻或私有领域知识)额外融入预训练模型中。然而,模型获取这些新知识的最优方法论仍然是一个开放的问题。在此背景下,提出了检索增强微调(RAFT),这是一种训练方法,可以提高模型在“开卷”的特定领域环境中回答问题的能力。
如何最好地为考试做准备?(a) 基于微调的方法通过直接“记忆”输入文档或在不引用文档的情况下回答练习QA来实现“学习”。(b) 另一方面,上下文检索方法未能利用固定领域所提供的学习机会,等同于在没有学习的情况下参加开卷考试。虽然这些方法利用了领域内的学习,但它们未能为开卷考试做好准备。相比之下,(c) RAFT在模拟的不完美检索环境中引用文档,同时利用问题-答案对进行微调——从而有效地为开卷考试设置做好了准备。

RAFT通过结合检索增强生成(RAG)和监督式微调(SFT),训练模型忽略那些对回答问题没有帮助的文档(称为干扰文档),并引用相关文档中正确的序列来回答问题。这种方法还包括链式思维(Chain-of-Thought)风格的响应,以增强模型的推理能力。
RAFT的核心思想是在训练数据中包含问题(Q)、一组文档(Dk)和从其中一个文档(D*)生成的答案(A*),其中区分了Golden文档(包含答案的文档)和干扰文档。在训练过程中,模型被训练以在存在干扰文档的情况下,从提供的文档和问题中生成答案。RAFT的训练方法不仅使模型能够通过微调学习特定领域的知识,还确保了对不准确检索的鲁棒性。
RAFT方法概述,左上角的图表展示了提出的方法,即让大型语言模型(LLMs)适应从一组正面和负面文档中阅读解决方案,这与标准的RAG设置形成对比,在标准的RAG设置中,模型是基于检索器的输出进行训练的,这种输出是记忆和阅读的混合体。在测试时,所有方法都遵循标准的RAG设置,提供上下文中检索到的前k个文档。

实验结果表明,RAFT在PubMed、HotpotQA和Gorilla数据集上的性能一致优于监督式微调模型,无论是使用RAG还是没有使用RAG。
不同数据集上评测结果

RAFT与DSF的比较示例:在HotpotQA数据集上对RAFT和DSF微调模型进行了提示,可以看到DSF模型从上下文中提取了错误的信息。对于“谁是编剧”的问题,它回答了一个电影的名字。而RAFT成功地正确得出了结果。

RAFT: Adapting Language Model to Domain Specific RAGhttps://arxiv.org/pdf/2403.10131.pdfhttps://github.com/ShishirPatil/gorilla/tree/main/raft


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询