AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


什么是检索增强生成
发布日期:2024-06-29 11:13:59 浏览次数: 1988 来源:PyTorch研习社



检索增强生成简称为 RAG(Retrieval Augmented Generation)。这并不是一个新的概念,但是我认为还是有必要科普一下,也有助于自己的理解。


RAG 是什么 




RAG 全称 Retrieval Augmented Generation,中文名检索增强生成。翻译成人话就是 AIGC 在回答问题或生成文本时,从指定的文档库中寻找相关信息来生成回答或文本,从而提高其预测的准确度。


Recap:LLM 可将事实知识存储在参数中,但是它们获取和精确操纵知识的能力有限,因此在执行“知识密集型”任务时,性能落后于特定任务的模型。具体问题包括 LLM 可能存在 知识局限性、数据安全性、通用模型易产生幻觉问题 ,解决方式为 In-Context Learning(Prompt Engineering)。


专业术语:

  • 知识的局限性:现有的主流大模型的训练集基本都是构建于网络公开的数据,难以获取某一特定领域、实时性的、非公开的或离线的数据。

  • 幻觉问题:在大模型自身不具备某一方面的知识或不擅长的场景,会产生幻觉问题。

  • 数据安全性:完全依赖通用大模型自身能力的应用方案,需要将私域数据上传第三方平台,要在数据安全和效果方面进行取舍。


In-Context Learning 是随着语言模型规模不断提高后的新能力——通用的 “阅读理解” 能力。与模型训练和微调这类能“永久”改变模型认知的方法不同,In-Context Learning 是让模型“临时” 从 Context 中理解内容并产生回答。例如,想向 LLM 提问有关 Ray 文档的技术细节,可以先将全部文档输入 LLM 作为 Context 后再提问。OpenAI GPTs的 “Knowledge” 功能即为 In-Context Learning,支持用户上传 PDF、Doc 等“知识库”作为 Context 来定制 GPT。


然而,LLM 支持的 Context Length 有限,最新的 GPT-4 Turbo 最大支持 128K context (约 300页 pdf),并且 Context Length 越大模型的推理效果越差、速度越慢。因此更有效的做法是,仅提供与 Prompt 有关的文档以缩短 Context Length,可通过“检索技术”实现,即 Retrieval-Augmented Generation, RAG。


RAG 是 In-Context Learning 的子集,即通过“检索技术”进一步提高 Context 与 Prompt 的相关性,从而提高模型回答的准确性,其流程图如下:



RAG 的核心工作流程





一、索引(Indexing)


  1. 数据准备:原始数据被清洗和提取,转换为标准化的纯文本格式。

2. 分块(Chunking):将文本分割成更小、更易于管理的块。

3. 向量化(Embedding):通过嵌入模型将块转换为向量表示,以便进行相似性比较。

4. 索引创建:创建一个索引,存储文本块及其向量嵌入作为键值对,以便高效搜索。


二、检索(Retrieval):


1. 查询转换:使用与索引阶段相同的编码模型将用户查询转换为向量表示。2. 相似性计算:计算查询向量与索引库中向量化块之间的相似性分数。

3. 检索选择:根据相似性分数优先检索与查询最相关的前K个块。


三、生成(Generation):


1. 上下文融合:将查询和检索到的文档合并为一个丰富的提示,提供给LLM。

2. 响应合成:LLM根据这个上下文提示生成一个连贯的响应。


RAG 的发展历程




原始 RAG(Naive RAG) 


1. 索引(Indexing):使用简单的索引策略,如基于文档的索引。

2. 检索(Retrieval):采用基本的相似性检索方法,如基于向量的相似性匹配。

3. 生成(Generation):直接使用检索到的信息作为上下文,指导语言模型生成响应。局限性:检索质量可能不高,导致生成的响应不准确或不相关。生成过程可能缺乏对检索信息的有效整合,导致输出质量不稳定。


高阶 RAG(Advanced RAG)


  1. 预检索策略:在检索前对数据进行优化,如使用query改写、滑动窗口、细粒度分割,优化数据索引,微调嵌入,动态嵌入

2. 重排名(Re-ranking):对检索结果进行重新排序,以突出最相关的信息。

3. 提示压缩(Prompt Compression):压缩检索到的信息,减少噪声,提高生成效率,压缩无关紧要的上下文,凸显关键段落,并缩短整体的 seqlen 以充分利用上下文窗口 改进:提高了检索的质量和效率;通过重排名和提示压缩等手段,优化了信 息的整合和生成过程。



模块化 RAG(Modular RAG)


  1. 模块化架构:允许灵活地添加、替换或调整RAG过程中的模块,以适应特定问题

2. 新模块和模式:引入了搜索模块、记忆模块、任务适配器等,以及优化 RAG 管道的新方法。

3. 迭代和递归检索:采用迭代和递归策略来逐步深入地获取和整合信息。愿景:提供了更大的灵活性和多样性,能够更好地适应不同的任务和数据类 型。允许序列化管道或端到端训练,提高了模型的适应性和性能。




RAG 的核心:Embedding 向量检索






构建向量的核心为:将各类型数据通过 ML 模型映射至高维隐空间,空间向量即为 Embedding,使用向量间的“距离”表示相似度进行检索。高维空间的 Embedding 蕴含了更丰富的信息,详细描述了数据特征及数据间的关系,如图所示。



以 text-to-embedding 领域为例,常见的预训练模型包括 word2vec, BERT等,最终 text 和 embedding 的关系如图所示。



Embedding 向量检索主要包含两个阶段:构建向量索引向量检索


构建向量


  1. 数据加载:数据源可能是 PDF、JSON、CSV等,数据类型可能为文本、图片等,后文以文本类型为例;

  2. 文档分块(Chunking):完整的文档会包含多个段落,每个段落所描述的概念不同,且会包含很多停用词(stop word)等无意义的单词,使用完整的文档计算 Embedding 难以精确描述文档内容。因此可以将文档分块(Chunking),每个分块独立计算 Embedding。 不同的分块方式决定了 Embedding 所表示的语义并最终影响 LLM 对文档整体的理解。例如文本文档可让 Chunk 间有一定的 overlap 保证上下文连贯性,而代码库由于代码除语义外也有结构关系,可将头文件、函数签名、函数体等代码内容分级后再切分(参考)。

  3. Chunk 向量化:将 Chunk 映射至高维隐空间向量,即 Embedding。Embedding 的计算可用自主部署的模型,如 hugging face提供的各类 embedding model,也可调用 Embedding Model 服务(可在 langchain.embeddingpackages 中查阅各类 Embedding Model API)。

  4. 向量索引构建 & 存储:为 Embedding 构建索引以便快速检索,与结构化数据的索引类似,Embedding 也有多种索引结构,例如下图的 k-nearest neighbor (knn) 构建图索引(Graph Index)。可用诸如 faiss的 lib 实现,但通常使用内置多种索引结构且提供持久化存储的向量数据库实现。


向量检索


根据用户 Prompt 检索出相关文档作为 Context




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询