微信扫码
与创始人交个朋友
我要投稿
这是关于 RAG 文档分块的创新研究,提出新框架 LGMGC 提升性能。核心内容:1. 现有文档分块在 ODQA 任务中的不足2. 新框架 LGMGC 的提出与优势3. 相关研究工作的介绍
今天给大家分享一篇关于RAG文本切块的论文:
论文概述论文题目:Passage Segmentation of Documents for Extractive Question Answering
论文地址:https://arxiv.org/pdf/2501.09940
在开放域问答(Open-Domain Question Answering, ODQA)任务中,文档分块(chunking)过程中存在的不足。特别是在基于检索增强生成(Retrieval-Augmented Generation, RAG)模型的管道中,文档被分割成独立的块,然后通过检索过程来识别与给定查询相关的块,这些相关块与查询一起被传递给语言模型(LLM)以生成期望的响应。
然而,现有研究往往更多关注于检索和生成组件的改进,而忽视了文档分块和分割的重要性。文档分块的粒度和语义在检索阶段的精确度中起着重要作用,而检索到的块中缺乏上下文信息或包含过多不相关信息可能会阻碍语言模型提取准确关键信息的能力,即使检索器的性能很好。
相关工作为了解决这些挑战,论文提出了一个新的框架——Logits-Guided Multi-Granular Chunker(LGMGC),该框架将长文档分割成不同粒度的上下文化、自包含的块。通过实验结果,论文证明了LGMGC不仅能够改善检索步骤,而且在集成到RAG管道中时,相较于现有的分块方法也能取得更好的性能。
论文中提到了以下与文档分块(chunking)和检索增强生成(RAG)相关的研究工作:
Recursive Chunking :这是一种基于层次分隔符将文本分割成单位的方法,它根据预定义的结构将文本分段。这种方法可能缺乏每个块内的足够上下文信息。
Small2Big :这种方法使用小的文本块进行信息检索,并将其扩展成更大的块,为LLM合成器提供额外的上下文。
Semantic Chunking :基于句子或段落之间显著的嵌入距离来确定断裂点,确保生成的块保持有意义和连贯。
使用大型语言模型(LLMs)提取文本段:近期的研究利用LLMs提取既上下文连贯又高效的文本段进行检索。例如利用LLM将文档转换成“命题”,这些命题封装了不同的事实,超越了传统的段落或句子级别的分块技术。
LumberChunker:自动识别最佳分割点,通过迭代地将段落输入到LLM中。
in-context retrieval :这是一种新的RAG系统的上下文检索方法,利用LLM中编码的文档隐藏状态来解码相关段落,无需文档分块。
这些研究展示了基于LLM的分块策略的优越性能,并强调了进一步探索基于LLM的段落分割的潜力。 然而,将大规模LLMs集成到RAG管道中会增加成本和处理时间,尤其是那些使用专有模型如GPT-4或Gemini-1.5的方法,这在企业内部也引发了IT安全问题。与上述方法相比,本文提出的基于LLM的方法只需要单个前向传递的logits信息,从而使分块过程在计算上更高效。
核心算法论文提出了一个名为Logits-Guided Multi-Granular Chunker(LGMGC)的新框架来解决开放域问答(ODQA)中文档分块的问题。LGMGC框架包含两个主要组件:Logits-Guided Chunker和Multi-Granular Chunker。下面是这两个组件如何协同工作来提高文档分块性能的详细说明:
整合:LGMGC结合了Logits-Guided Chunker和Multi-Granular Chunker的优势,首先利用Logits-Guided Chunker生成的θ大小的父块,然后进一步细分这些父块为不同粒度的子块。
效果:实验结果表明,LGMGC在文档检索和下游问答任务中均优于主流分块方法,显示出其在检索和问答任务中的潜力。
通过这种结合语义连贯性和不同粒度需求的方法,LGMGC能够有效地改善文档分块过程,提高RAG模型在开放域问答任务中的性能。
论文实验数据集:使用GutenQA数据集,这是一个具有“针堆中找针”类型问题-答案对的基准数据集,来源于叙事书籍。
评估指标:使用DCG@k和Recall@k作为评估指标。
结果处理:由于观察到原始文本中没有直接出现的证据,可能是由于LLM合成生成的基准数据,导致匹配率降低,因此对数据进行了重新标记。对于每个证据,计算其与每个块的ROUGE分数,并选择分数最高的块作为与查询相关的块。
数据集:使用LongBench中的三个单文档QA数据集:NarrativeQA、QasperQA和MultifieldQA。这些任务旨在进行信息提取,而不需要高级推理。
评估指标:使用F1分数作为评估指标,定义如下:
其中,BOW(A)表示预测(pred)或真实答案(gt)的词袋模型。
基线方法:与几种已建立的方法进行比较,包括Recursive Chunker和Semantic Chunker。此外,还包括Paragraph-Level Chunker和LumberChunker作为检索任务的进一步基线比较。还包括Multi-Granular Chunker(MG Chunker)和Logits-Guided Chunker(LG Chunker)作为消融研究的基线。
模型和实现细节:使用8位量化的Llama3-8b进行Logits-Guided Chunker和LGMGC的实现。所有策略都在不同的块大小θ(200, 300, 500词)下进行评估,以评估它们对这一超参数的敏感性。
检索任务:Logits-Guided Chunker在不同块大小下一致性地优于Recursive Chunker、Semantic Chunker和Paragraph-Level Chunker,表明其在捕获上下文连贯性和产生独立、集中的语义块方面具有优越能力。LGMGC在考虑文本块的连贯性和不同问题的粒度时,取得了最佳结果。
下游QA任务:LGMGC在所有三个数据集上使用最优块大小时展现出最高的性能,表明其在下游问答任务中相较于当前基线方法具有优越性。
这些实验结果证明了LGMGC在检索和下游问答任务中的有效性,并强调了其在进一步研究和实际应用中的潜力。
论文结语这篇论文总结了LGMGC的优势,并提出了未来可能的研究方向,包括集成更合理的自动评估指标、探索多语言和跨领域应用、提高计算效率和可扩展性、改进语义理解和上下文建模等。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-01-24
RAG:7种用于向量数据库+相似性搜索的索引方法
2025-01-24
搭建 RAG 系统的技巧和策略
2025-01-24
知乎直答:AI 搜索产品从 0 到 1 实践探索
2025-01-23
2024 GitHub 十大最佳 RAG 框架
2025-01-23
Vertex AI RAG Engine:Google Cloud最新打造的RAG超级引擎(含代码)
2025-01-23
大模型生成内容靠谱吗?CRAAP测试告诉你
2025-01-23
反思 Reflection Agent —— 提升 AI 决策能力的利器
2025-01-23
北航团队发布XRAG-Ollama! 基于Ollama的XRAG本地化部署与实验基准框架:让你的RAG实验与分析更加简单
2024-07-18
2024-09-04
2024-05-05
2024-06-20
2024-07-09
2024-07-09
2024-06-13
2024-05-19
2024-10-27
2024-07-07
2025-01-24
2025-01-20
2025-01-18
2025-01-18
2025-01-18
2025-01-13
2025-01-09
2025-01-09