AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


​GraphRAG太贵? 港大打造LightRAG,让大模型RAG问答成本降低几十倍
发布日期:2024-10-23 12:11:12 浏览次数: 1726 来源:PaperWeekly



近期,香港大学黄超团队提出了一种新的大模型 RAG 范式——LightRAG。这是一种简单快速的检索增强生成(RAG)系统,显著降低了与大语言模型(LLMs)相关的成本。LightRAG 通过图结构有效捕捉和表示实体间的复杂关系,采用双层检索范式,实现低层与高层信息的高效整合。此外,LightRAG 还具备快速适应动态数据变化的能力,能够及时整合新信息。



摘要
检索增强生成(RAG)系统通过整合外部知识源,增强了大语言模型(LLMs)的功能,使其能够根据用户需求生成更精准且上下文相关的响应。
然而,现有的 RAG 系统存在一些明显的局限性,例如对平面数据表示的依赖以及缺乏足够的上下文感知能力,这导致答案往往碎片化,无法充分捕捉复杂的实体间相互依赖关系。尽管 GraphRAG 引入了图结构以改善文本索引和检索过程,但也带来了较高的模型开销。
为了解决这些问题,我们提出了 LightRAG。该创新框架采用双层检索系统,提升了低层与高层知识发现的综合信息检索能力。此外,结合图结构与向量表示,显著提高了相关实体及其关系的检索效率,缩短了响应时间,同时保持了上下文的相关性。同时,LightRAG 中的增量更新算法增强了系统在快速变化的数据环境中的响应能力,确保能够及时集成新数据。
广泛的实验结果表明,LightRAG 在检索准确性和效率方面较现有方法有显著提升。



模型架构

2.1 图增强的实体与关系提取

LightRAG 通过将文档拆分为更小的可管理片段,从而显著提升了检索系统的效率。这种方法使得相关信息的快速识别和获取变得更加便捷,无需逐篇分析整个文档。

接下来,我们利用大语言模型(LLMs)来识别和提取各种实体(如人名、日期、地名和事件)及其之间的关系。提取后的信息将用于构建一个综合性的知识图谱,旨在揭示文档集合中的联系与深层见解。以下是我们在图结构文本索引中使用的关键功能:

  • 实体与关系提取 该功能利用大语言模型(LLM)从文本数据中识别出实体(节点)及其相应的关系(边)。例如,它能够从句子“心脏病专家评估症状以确定潜在的心脏问题”中提取出“心脏病专家”和“心脏病”等实体,并识别出“心脏病专家诊断心脏病”的关系。为了提升处理效率,原始文本会被划分为多个小段。
  • LLM 生成键值对 我们利用大语言模型(LLM)创建实体节点和关系边的键值对。每个索引键由特定的词或短语组成,以便实现高效检索,而对应的值则是从外部数据中提取的摘要信息,用于支持文本生成。实体名称作为独特的索引键,而关系则通过 LLM 扩展成多个索引键,涵盖与相关实体相关的主题。
  • 去重与优化图操作 我们通过去重功能识别并整合来自不同文本片段的重复实体和关系。这个过程显著降低了图操作的成本,从而提升了数据处理的效率。

LightRAG 的图结构文本索引模式提供了两个显著的优势。首先,增强的信息理解:构建的图形结构能够从多跳子图中提取整体信息,显著提高了模型在处理跨多个文档的复杂查询时的能力。其次,优化的检索性能:图生成的键值数据结构经过改进,能够迅速且准确地获取所需信息,优于传统方法中的嵌入匹配和低效的片段检索技术。

2.2 快速适应知识库的动态更新
为有效应对数据的变化并确保生成精准且相关的响应,LightRAG 采用了一种增量更新算法,允许知识库的更新,而无需对整个外部数据库进行全面重处理。该算法通过相同的图结构索引过程来处理新文档,并将新生成的图数据与已有数据进行合并。为实现快速适应增量知识库,我们设定了两个核心目标:
  • 高效整合新数据增量更新模块采用统一的方法来处理新信息,使模型能够在保持现有图结构的完整性的同时,顺利引入新的外部数据库。这一策略确保了历史数据的可用性,同时丰富了知识图谱,避免了信息的冲突或冗余。

  • 优化计算资源由于无需重新构建整个索引图,这种方法大幅度减少了计算的负担,并加速了新数据的整合。这样一来,模型不仅得以保持系统的准确性,确保信息的及时更新,还能显著节约资源,从而增强了 RAG 系统的整体效率。

2.3 双层检索范式

为了同时获取特定文档片段及其复杂的相互关系,LightRAG 提出了生成详细(Low-Level)和抽象(High-Level)两种层次的查询键。

  • 细化查询这些查询关注具体细节,通常涉及图中的特定实体,旨在准确检索与特定节点或边相关的信息。例如,细化查询可能是“《傲慢与偏见》的作者是谁?”
  • 抽象查询与此相对,抽象查询更具广泛性,涉及摘要或全局主题,而非直接关联于特定实体。例如,一个概念查询可以是“人工智能对现代教育的影响是什么?”

为了应对多样化的查询需求,模型在双层检索模式中采用了两种不同的检索策略。这确保无论是细化还是概念查询,都能有效地得到响应,满足用户的期望。

  • Low-Level 检索这一层次主要关注特定实体及其相关属性或关系。该层级的查询强调细节,旨在提取与图中特定节点或边准确相关的信息。
  • High-Level 检索此层次处理更广泛的主题和全局概念。这类查询聚合多个相关实体和关系的信息,提供对高层概念和摘要的深刻理解,而非具体细节。
通过将图结构与向量表示相结合,模型得以更全面地解析实体间的关系。这种协同机制使得检索算法能够灵活运用局部和全局关键词,优化搜索流程,进而提升结果的相关性。

2.4 基于检索增强的答案生成

借助检索到的信息,LightRAG 利用通用大语言模型(LLM)生成基于收集到的数据的答案。这些数据由相关实体及其关系的连接值构成,涵盖了包括名称、描述和原始文本摘录在内的多种信息。通过将查询与这些多源文本整合,LLM 能够生成与用户需求相符的答案,确保查询意图得到有效响应。这一方法通过将上下文信息与查询合并到 LLM 模型中,简化了答案生成的流程。


LightRAG的验证实验

定义许多 RAG 查询(尤其是涉及复杂高层语义的查询)的真实值是一项巨大的挑战。为了解决这一问题,我们基于现有研究,采用了大语言模型(LLM)对回答的答案多维度评估比较的方法。在本次实验中,我们使用了 GPT-4o-mini 模型,对每个对比方法与 LightRAG 进行排名。总体而言,我们设定了四个评估维度:

  1. 全面性:答案在多大程度上涵盖了问题的各个方面和细节?
  2. 多样性:答案在提供不同视角和见解方面的丰富程度如何?
  3. 赋能性:答案在多大程度上帮助读者理解主题并做出明智的判断?
  4. 总体表现:综合前三个维度的表现来评估最佳答案。
在确定每个维度的获胜答案后,LLM 将结合这些结果来评估总体表现最优的答案。为确保评估的公正性,并减轻答案在提示中呈现顺序可能带来的偏见,我们会交替排列每个答案的顺序,并根据获胜次数计算最终结果。
3.1 LightRAG与现有RAG方法的对比
我们在多个评估维度和数据集上对 LightRAG 与每个对比方法的表现进行了比较,结果见表1。

图增强RAG系统在大规模语料库中的优势

在处理大量 token 和复杂查询时,基于图结构的 RAG 系统(如 LightRAG 和 GraphRAG)展现出明显优于传统片段检索方法(如 NaiveRAG、HyDE 和 RQRAG)的性能。

随着数据集规模的扩大,这种优势愈加明显。例如,在最大的数据集(Legal)中,基线方法的胜率仅为约 20%,而 LightRAG 则显著领先。这一现象强调了图增强 RAG 系统在捕捉大规模语料库中的复杂语义依赖关系方面的卓越能力,从而实现更全面的知识理解和更强的泛化能力。
LightRAG 提升问答结果多样性:

与现有 RAG 方法相比,LightRAG 在“多样性”这一指标上展现出显著优势,尤其在较大的 Legal 数据集中。这一持续的领先表现表明,LightRAG 在生成多样化回答方面具有强大的能力,特别适用于内容丰富的场景。

我们将这一优势归因于 LightRAG 的双层检索范式,该范式能够从低层和高层维度全面检索信息。通过图结构文本索引,LightRAG 能够在应对查询时持续捕捉全局上下文,从而生成多样化的响应。
LightRAG 相较于 GraphRAG 的优势:

尽管 LightRAG 和 GraphRAG 均采用图结构的检索机制,LightRAG 在较大数据集和复杂语言背景下仍表现出持久的优势。在包含数百万 token 的 Agriculture、CS 和 Legal 数据集中,LightRAG 明显超越了 GraphRAG,彰显了其在不同环境中全面理解信息的能力。

通过结合对特定实体的低层检索与对更广泛主题的高层检索,LightRAG 显著增强了回答的多样性。这种双层机制有效应对了详细与抽象查询,确保对信息的全面掌握。

该方法在需要多样化视角的场景中尤为重要。通过同时获取具体细节与全局主题,LightRAG 能够熟练应对涉及多个互相关联话题的复杂查询,提供具有上下文相关性的答案。

3.2 消融实验

我们首先分析了 Low-Level 和 High-Level 检索范式的影响。通过比较两种消融模型(分别移除一个模块)与 LightRAG 在四个数据集上的表现,我们得出了以下主要观察:

  • 仅 Low-Level 检索-High 该变体移除了高层检索,导致在几乎所有数据集和指标上均出现显著下降。这一下降主要源于其过于强调具体信息,专注于实体及其直接关联的邻居。尽管这种方法允许深入探索直接相关的实体,但在需要综合洞察的复杂查询中表现不足。
  • 仅 High-Level 检索-Low 这一变体通过利用实体间的关系来捕捉更广泛的内容,而非专注于具体实体。这种方法在全面性上显示出显著优势,能够收集更丰富和多样化的信息。然而,这也意味着它无法深入探讨具体实体,从而限制了提供详细洞察的能力。因此,在需要精准、详细答案的任务中,这种仅依赖高层检索的方法可能表现不佳。
  • 混合模式混合模式(即 LightRAG 的完整版本)结合了低层和高层检索的优势,既能广泛检索关系,又能深入探索具体实体。这种双层检索方法确保了广度与深度的有效结合,提供了全面的数据视图。因此,LightRAG 在多个维度上实现了平衡的表现。

3.3 模型成本与动态数据适应性分析

我们从两个关键角度对 LightRAG 与 GraphRAG 的成本进行了比较。首先,我们分析了索引和检索过程中的 token 数量和 API 调用次数。其次,我们评估了这些指标在动态环境中处理数据变化的表现。

评估结果在 Legal 数据集上显示,如下表所示。在这里, 表示实体和关系提取的 token 开销, 是每次 API 调用允许的最大 token 数,而 则表示提取所需的 API 调用次数。

在检索阶段,GraphRAG 创建了 1,399 个 Communities,其中 610 个二级社区被用于本实验的检索。每个社区平均包含 1,000 个 token,因此总的 token 消耗量达到 610,000 个(610 个社区 × 每个社区 1,000个 token)。

此外,GraphRAG 需要逐一检查每个社区,导致了数百次 API 调用,这显著增加了检索成本。相较之下,LightRAG 对这一过程进行了优化,仅需使用不到 100 个 token 来进行关键词生成和检索,整个过程仅需一次 API 调用。这种高效性源于我们独特的检索机制,巧妙地结合了图结构与向量化表示,从而避免了对大量信息的预处理。

在增量数据更新阶段,旨在应对动态环境中的数据变动时,两种模型在实体和关系提取方面的开销相对接近。
然而,GraphRAG 在处理新增数据时表现出明显的低效。当引入与法律数据集规模相当的新数据集时,GraphRAG 需要解构现有的社区结构,以便整合新的实体和关系,然后重新构建完整的结构。这一过程导致每个社区的开销接近 5,000 个 token。
考虑到有 1,399 个社区,GraphRAG 的总消耗将达到约 1,399 × 2 × 5,000 个 token,以重建既有的和新增的社区报告,这一消耗极为庞大,凸显了其低效性。
相比之下,LightRAG 能够将新提取的实体和关系无缝整合进现有的图结构中,省去了全面重构的需求。这一方法显著降低了增量更新过程中的开销,展现出其卓越的效率和成本效益。
·
·



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询