微信扫码
与创始人交个朋友
我要投稿
检索增强生成简称为 RAG(Retrieval Augmented Generation)。这并不是一个新的概念,但是我认为还是有必要科普一下,也有助于自己的理解。
RAG 是什么
RAG 全称 Retrieval Augmented Generation,中文名检索增强生成。翻译成人话就是 AIGC 在回答问题或生成文本时,从指定的文档库中寻找相关信息来生成回答或文本,从而提高其预测的准确度。
Recap:LLM 可将事实知识存储在参数中,但是它们获取和精确操纵知识的能力有限,因此在执行“知识密集型”任务时,性能落后于特定任务的模型。具体问题包括 LLM 可能存在 知识局限性、数据安全性、通用模型易产生幻觉问题 ,解决方式为 In-Context Learning(Prompt Engineering)。
专业术语:
知识的局限性:现有的主流大模型的训练集基本都是构建于网络公开的数据,难以获取某一特定领域、实时性的、非公开的或离线的数据。
幻觉问题:在大模型自身不具备某一方面的知识或不擅长的场景,会产生幻觉问题。
数据安全性:完全依赖通用大模型自身能力的应用方案,需要将私域数据上传第三方平台,要在数据安全和效果方面进行取舍。
In-Context Learning 是随着语言模型规模不断提高后的新能力——通用的 “阅读理解” 能力。与模型训练和微调这类能“永久”改变模型认知的方法不同,In-Context Learning 是让模型“临时” 从 Context 中理解内容并产生回答。例如,想向 LLM 提问有关 Ray 文档的技术细节,可以先将全部文档输入 LLM 作为 Context 后再提问。OpenAI GPTs的 “Knowledge” 功能即为 In-Context Learning,支持用户上传 PDF、Doc 等“知识库”作为 Context 来定制 GPT。
然而,LLM 支持的 Context Length 有限,最新的 GPT-4 Turbo 最大支持 128K context (约 300页 pdf),并且 Context Length 越大模型的推理效果越差、速度越慢。因此更有效的做法是,仅提供与 Prompt 有关的文档以缩短 Context Length,可通过“检索技术”实现,即 Retrieval-Augmented Generation, RAG。
RAG 是 In-Context Learning 的子集,即通过“检索技术”进一步提高 Context 与 Prompt 的相关性,从而提高模型回答的准确性,其流程图如下:
RAG 的核心工作流程
一、索引(Indexing)
数据准备:原始数据被清洗和提取,转换为标准化的纯文本格式。
2. 分块(Chunking):将文本分割成更小、更易于管理的块。
3. 向量化(Embedding):通过嵌入模型将块转换为向量表示,以便进行相似性比较。
4. 索引创建:创建一个索引,存储文本块及其向量嵌入作为键值对,以便高效搜索。
二、检索(Retrieval):
1. 查询转换:使用与索引阶段相同的编码模型将用户查询转换为向量表示。2. 相似性计算:计算查询向量与索引库中向量化块之间的相似性分数。
3. 检索选择:根据相似性分数优先检索与查询最相关的前K个块。
三、生成(Generation):
1. 上下文融合:将查询和检索到的文档合并为一个丰富的提示,提供给LLM。
2. 响应合成:LLM根据这个上下文提示生成一个连贯的响应。
RAG 的发展历程
原始 RAG(Naive RAG)
1. 索引(Indexing):使用简单的索引策略,如基于文档的索引。
2. 检索(Retrieval):采用基本的相似性检索方法,如基于向量的相似性匹配。
3. 生成(Generation):直接使用检索到的信息作为上下文,指导语言模型生成响应。局限性:检索质量可能不高,导致生成的响应不准确或不相关。生成过程可能缺乏对检索信息的有效整合,导致输出质量不稳定。
高阶 RAG(Advanced RAG)
预检索策略:在检索前对数据进行优化,如使用query改写、滑动窗口、细粒度分割,优化数据索引,微调嵌入,动态嵌入
2. 重排名(Re-ranking):对检索结果进行重新排序,以突出最相关的信息。
3. 提示压缩(Prompt Compression):压缩检索到的信息,减少噪声,提高生成效率,压缩无关紧要的上下文,凸显关键段落,并缩短整体的 seqlen 以充分利用上下文窗口 改进:提高了检索的质量和效率;通过重排名和提示压缩等手段,优化了信 息的整合和生成过程。
模块化 RAG(Modular RAG)
模块化架构:允许灵活地添加、替换或调整RAG过程中的模块,以适应特定问题
2. 新模块和模式:引入了搜索模块、记忆模块、任务适配器等,以及优化 RAG 管道的新方法。
3. 迭代和递归检索:采用迭代和递归策略来逐步深入地获取和整合信息。愿景:提供了更大的灵活性和多样性,能够更好地适应不同的任务和数据类 型。允许序列化管道或端到端训练,提高了模型的适应性和性能。
RAG 的核心:Embedding 向量检索
构建向量的核心为:将各类型数据通过 ML 模型映射至高维隐空间,空间向量即为 Embedding,使用向量间的“距离”表示相似度进行检索。高维空间的 Embedding 蕴含了更丰富的信息,详细描述了数据特征及数据间的关系,如图所示。
以 text-to-embedding 领域为例,常见的预训练模型包括 word2vec, BERT等,最终 text 和 embedding 的关系如图所示。
Embedding 向量检索主要包含两个阶段:构建向量索引和向量检索。
构建向量
数据加载:数据源可能是 PDF、JSON、CSV等,数据类型可能为文本、图片等,后文以文本类型为例;
文档分块(Chunking):完整的文档会包含多个段落,每个段落所描述的概念不同,且会包含很多停用词(stop word)等无意义的单词,使用完整的文档计算 Embedding 难以精确描述文档内容。因此可以将文档分块(Chunking),每个分块独立计算 Embedding。 不同的分块方式决定了 Embedding 所表示的语义并最终影响 LLM 对文档整体的理解。例如文本文档可让 Chunk 间有一定的 overlap 保证上下文连贯性,而代码库由于代码除语义外也有结构关系,可将头文件、函数签名、函数体等代码内容分级后再切分(参考)。
Chunk 向量化:将 Chunk 映射至高维隐空间向量,即 Embedding。Embedding 的计算可用自主部署的模型,如 hugging face提供的各类 embedding model,也可调用 Embedding Model 服务(可在 langchain.embeddingpackages 中查阅各类 Embedding Model API)。
向量索引构建 & 存储:为 Embedding 构建索引以便快速检索,与结构化数据的索引类似,Embedding 也有多种索引结构,例如下图的 k-nearest neighbor (knn) 构建图索引(Graph Index)。可用诸如 faiss的 lib 实现,但通常使用内置多种索引结构且提供持久化存储的向量数据库实现。
向量检索
根据用户 Prompt 检索出相关文档作为 Context
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21