微信扫码
和创始人交个朋友
我要投稿
探索KG2-RAG:如何融合图谱与检索技术提升LLM生成效果。 核心内容: 1. RAG技术两大方向:检索+rank与图谱(知识库)的应用 2. KG2-RAG框架:结合两种方式的优势与具体实现细节 3. Document Offline Processing与KG-enhancement的详细解析
目前在RAG方向,存在两个主要的方向,一个是检索文档+rank方式来提升LLM,一个是利用图谱(知识库)来提升LLM,形式如下:
两种方式存在的优缺点是:
(1)第一种就是采用检索+rank方式来获取相关片段来增强大模型生成,优点就是简单有效;缺点是存在检索到很多与query无关的片段,增加噪声输入,与query关联的信息比较稀疏,需要LLM本身去提炼或挖掘利用;且一般是直接将检索的片段(chunks)放入指令中,忽略了片段中的内在关联信息或者query中的核心实体与片段的关联信息;
(2)第二种是利用query去检索图谱的信息,然后过滤有效的信息输入LLM;该方式优点就是检索到的信息是以实体及实体关联的形成呈现,信息密度比较高,噪声小;缺点就是:对图谱的信息质量要求比较高;此外,提供的信息比较单一,覆盖率比较小。
若按检索来理解,第一种方式是召回率高,准确率低些;第二种是准确率高,但召回率低些。为此,今天讲述一个新的框架——KG2RAG,其主要将上述两种方式融合起来用。当然,这种想法并不新奇,也有类似的工作,今天主要看看KG2RAG具体是如何实现的。
上图为KG2RAG的整体流程图,下面详细来说下
首先,对语料库文档进行离线处理:1)将每个文档按一定规则(固定长度)方式切成片段(chunk);2)对每个片段做下增强处理,包括抽取相关元信息(标题、摘要等)、以及该片段涉及到的相关query信息等;3)得到一个片段集合
其次,为了获取每个片段中包含的实体之间的信息,利用LLM从每个片段中抽取三元组信息,形成图谱。具体形式为:
其中h,r,t分别表示头实体,关系,尾实体,c为对应的片段。该抽取的过程与query无关,所以该过程是可以离线来操作。三元组抽取的指令形式如下:
有了上述的语料离线处理,接下来就是如何来利用这些信息来检索增强llm。包含两个步骤:1)Semantic-based Retrieval;2)Graph-guided Expansion。
1)Semantic-based Retrieval
该过程就是熟知的检索+rank过程,即给定一个query,计算它与片段集合D中相关的片段的相似度:
2)Graph-guided Expansion
利用离线构建好的图谱信息和检索的片段
,可以得到一个与query相关的子图信息,即:
按近邻m-hop的搜索方式对上述的子图进行扩充,得到扩充后的子图 ,接着讲扩充后的子图所关联的片段形成一个新的集合,作为利用图谱后扩充的片段信息,即:
在利用上述2.2步骤扩充后的片段集合后,可能存在片段数量过多,超过最大输入长度等问题,为了解决这些问题,需要进一步进行过滤与重组。
1)Serving as a Filter
首先将扩充后的图变成一个无向带权重的图,计算方式如下:
接着根据图的链接性,可以将其分成几个独立的子图(如figure2中色块所示),表示为,其中i代表数量。为了限制某个子图过于庞大,可以按maximum spanning tree(MST)的方式对每个子图进行裁剪过滤,形成过滤后的子图:
2)Serving as an Arranger
接着对上述的子图再进行重排,计算方式如下:
其中C(.)代表cross-encoder reranking function重排函数,conc(.)是代表某个子图中包含的所有三元组进行拼接。可以看出重排的时候,就没有用片段的表征向量,而是用了三元组的信息,目的是三元组的信息更为准确。
最后利用重排的分数,选择top-k相关的片段进行拼接,作为最终的检索信息,输入LLM中进行解码生成。
上图是主实验结果,在4个数据集,对比了4种不同的RAG方式,验证了回答质量和检索质量两个维度,显示:
(1)在4个数据集上,论文提出的KG2-RAG在reponse quality上都有非常明显的提升;
(2)与KG2-RAG效果像接近的是Hybrid RAG和Semantic RAG+Rerank;
(3)比较热门的GraphRAG在四个数据集上表现的很差,这个挺让人意外的。
上图是显示对Graph-guided Expansion与KG-based Context Organization的消融实验,显示:
(1)在reponse quality上,Expansion方式对影响的更大;
(2)在retrieval quality,Organization方式影响的更大,而没有Expansion方式,检索的质量更高,说明利用KG可以提高检索质量。
本次分享一个KG2-RAG框架,其主要思路利用片段构建图信息,进一步增强片段信息,其中核心是利用检索的图扩充片段,以及利用图对检索片段进行重排。整体看来,相比正常的RAG流程,其在线推理成本没有增加太多,构建图谱的环节可以离线实现,觉得某些应用场景可值得试试。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-21
DeepRAG:LLM时代的智能检索革命(实测提升准确率21.99%)
2025-02-21
从零开始优化 RAG 流程的终极指南,解决检索增强生成的核心挑战
2025-02-20
本地运行DeepSeek R1 + RAG系统
2025-02-20
传统分块已死?Agentic Chunking拯救语义断裂,实测RAG准确率飙升40%,LLM开发者必看!
2025-02-20
传统 RAG 与 Agentic RAG对比
2025-02-20
企业级内部的RAG系统,已经支持DeepSeek,PHP语言,可以做内部网的RAG
2025-02-19
尊敬的 IT 部门,请停止尝试构建自己的 RAG
2025-02-19
RAG+的一些前沿动向:兼看长文本、投标写作以及R1可解释性的有趣探索
2024-09-04
2024-10-27
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-02-15
2025-02-12
2025-02-05
2025-02-05
2025-01-24
2025-01-24
2025-01-20
2025-01-18