微信扫码
与创始人交个朋友
我要投稿
大家好!今天我分享的文章是来自蚂蚁和清华的最新工作,文章所属领域是自然语言处理和信息检索,作者针对网络增强型长篇问答系统中存在的事实性和逻辑性问题,提出了一种名为FoRAG的新方法,通过大纲增强生成和多粒度事实性优化来提高回答质量。研究问题和思路具有一定的借鉴意义。
原文:FoRAG: Factuality-optimized Retrieval Augmented Generation for Web-enhanced Long-form Question Answering
地址:https://arxiv.org/html/2406.13779v1
代码:https://huggingface.co/forag
出版:KDD '24
机构: 蚂蚁集团、清华大学
本文研究的核心问题是: 如何提高网络增强型长篇问答系统的回答质量,特别是在事实性和逻辑性方面。
假设用户询问"为什么古代城市会被沙土掩埋?"。传统的网络增强型问答系统可能会生成一个包含事实错误或逻辑不清晰的长篇回答。例如,系统可能会错误地声称所有古代城市都被沙土掩埋,或者给出一个缺乏清晰结构的回答,使用户难以理解主要原因和次要原因之间的关系。
本文研究问题的特点和现有方法面临的挑战主要体现在以下几个方面:
针对这些挑战,本文提出了一种基于大纲增强和多粒度事实性优化的"FoRAG"方法:
FoRAG方法可以类比为一个经验丰富的作家和一个严谨的编辑的合作过程。首先,"作家"(大纲增强生成器)会先列出一个写作大纲,确保文章结构清晰。然后根据这个大纲来撰写详细内容,就像优秀作家会先梳理思路再动笔一样。接着,"编辑"(多粒度事实性优化模块)会仔细审核文章的每一个细节,不仅关注整体内容,还会逐句甚至逐词地检查,就像一个一丝不苟的编辑在校对文章。这种方法既保证了文章的整体结构和连贯性,又最大限度地减少了事实性错误,从而产出高质量的长篇回答。
大纲增强生成器是FoRAG方法的核心组件之一,旨在提高生成答案的逻辑结构和连贯性。这个生成器采用两阶段生成策略:大纲生成阶段和扩展阶段。
在大纲生成阶段,系统首先考虑最适合当前问题的组织模式,例如"因果关系"或"对比分析"。举个例子,如果问题是"为什么恐龙灭绝了?",系统可能会选择"因果关系"作为组织模式。然后,系统会生成一个简洁的大纲,包含主要论点。在我们的恐龙灭绝例子中,大纲可能是:
在扩展阶段,系统基于生成的大纲来构建完整的答案。这就好比一个作家先列出文章的框架,然后再逐步填充内容。对于恐龙灭绝的例子,系统会详细阐述每个理论,解释它们如何可能导致恐龙灭绝。
这种方法的优势在于,它能确保生成的答案具有清晰的结构和逻辑流程,使读者更容易理解复杂的信息。直觉上,这就像是先搭建房子的骨架,然后再填充墙壁和装饰,而不是直接开始随意堆砌砖块。
为了训练和评估大纲增强生成器,我们构建了一个专门的大纲增强长篇问答数据集。这个数据集的特点是每个样本不仅包含问题和答案,还包含答案的大纲。具体来说,我们使用了两个现有的网络增强型长篇问答数据集:英文的WebGLM-QA和中文的WebCPM。我们保留了这些数据集中的问题和相关段落,但使用我们的大纲增强生成技术重新生成了答案。举个例子,对于"为什么恐龙灭绝了?"这个问题,数据集中的一个样本可能包含:
这个数据集的构建过程可以类比为给一本没有目录的书添加目录,然后根据目录重写每一章。这不仅提高了内容的组织性,还为学习如何生成结构化答案提供了宝贵的训练资料。
双重细粒度RLHF(Reinforcement Learning from Human Feedback)框架是FoRAG方法中用于优化生成内容事实性的关键组件。这个框架的设计灵感来自于人类对信息的处理方式:我们不仅关注整体内容,还会细致审查每个细节。这个框架包含两个主要创新点:细粒度自动评估和细粒度奖励建模。
在细粒度自动评估中,我们考虑了三个不同的粒度级别:
这就好比阅读一篇文章,我们可以给出整体印象,也可以逐句分析,甚至可以考察每个具体的观点。举个例子,对于"小行星撞击导致恐龙灭绝"这个句子,我们可以将其分解为"小行星撞击地球"和"这次撞击导致恐龙灭绝"两个子主张,并分别评估它们的事实性。
在奖励建模方面,我们提出了两种粒度级别:
这种方法可以类比为教师批改作文。序列级奖励就像给整篇文章或每个段落一个总体评分,而令牌级奖励则像是在文章中标注出每个好的或需要改进的词语。
通过结合不同粒度的评估和奖励建模,我们可以更精确地识别和改进生成内容中的事实性问题。例如,如果系统在描述小行星撞击的具体时间时出现错误,细粒度评估可以准确定位这个错误,而细粒度奖励模型则可以为修正这个具体时间信息提供更精确的指导。这个框架的优势在于它能提供更丰富、更细致的反馈信号,使模型能够学习到更细微的事实性调整。这就好比给学生提供详细的批注和建议,而不仅仅是一个总体分数,从而帮助他们更好地理解和改进自己的表现。
该论文提出了一种名为FoRAG的新方法,用于改进网络增强型长篇问答(web-enhanced LFQA)任务。实验主要验证FoRAG在生成连贯、有帮助和事实准确的长篇回答方面的性能,并与现有的方法进行比较。
目的:评估FoRAG在连贯性、有帮助性和事实性方面的性能,与现有方法进行比较
涉及图表:表1
实验细节概述:在WebCPM(中文)和WebGPT(英文)数据集上,比较FoRAG-L 7B和FoRAG-C 6B与基线模型的性能
结果:
目的:评估大纲增强生成技术和事实性优化对模型性能的影响
涉及图表:表2
实验细节概述:比较有无大纲增强和事实性优化的FoRAG变体在各项指标上的表现
结果:
目的:比较各种实现FoRAG方法的性能,包括不同评估和奖励模型粒度的组合
涉及图表:表3
实验细节概述:在FoRAG-L 7B上测试各种事实性优化技术,包括不同粒度的评估和奖励建模
结果:
目的:验证大纲增强生成技术对模型性能的影响
涉及图表:表4
实验细节概述:比较有无大纲增强技术的FoRAG-C 6B和FoRAG-L 7B在连贯性和有帮助性上的表现
结果:
目的:验证GPT4辅助自动评估的可靠性
涉及图表:表5
实验细节概述:让10名中文母语者对200个样本进行人工评估,并与GPT4的评估结果进行比较
结果:
目的:评估双细粒度RLHF框架的计算成本
涉及图表:表6
实验细节概述:比较不同RLHF方法的训练时间
结果:
目的:评估训练数据集中中英文比例对双语LLM性能的影响
涉及图表:图2
实验细节概述:固定训练样本总数为40k,调整中英文比例,从1:10到10:1,观察对模型性能的影响
结果:
本论文针对网络增强型长篇问答(Web-enhanced Long-form Question Answering,LFQA)中的事实性问题,提出了一种名为FoRAG的方法。FoRAG包含两个主要创新点:1)提出了一种基于大纲的生成器,通过两阶段生成过程提高回答的逻辑性;2)设计了一种基于双重细粒度RLHF(Reinforcement Learning from Human Feedback)框架的事实性优化方法。实验结果表明,FoRAG在英语和中文基准测试中都取得了最先进的性能,特别是在一致性、有用性和事实性方面。值得注意的是,基于Llama2-7B-chat的FoRAG-L-7B模型在这些指标上超过了参数量为其24倍的WebGPT-175B模型。
疑惑和想法:
可借鉴的方法点:
本文内容如有不对烦请留言指正
END
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21