微信扫码
与创始人交个朋友
我要投稿
检索增强生成(RAG)是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型(LLM)用海量数据进行训练,使用数十亿个参数为回答问题、翻译语言和完成句子等任务生成原始输出。在 LLM 本就强大的功能基础上,RAG 将其扩展为能访问特定领域或组织的内部知识库,所有这些都无需重新训练模型。这是一种经济高效地改进 LLM 输出的方法,让它在各种情境下都能保持相关性、准确性和实用性。
LLM 是一项关键的人工智能(AI)技术,为智能聊天机器人和其他自然语言处理(NLP)应用程序提供支持。目标是通过交叉引用权威知识来源,创建能够在各种环境中回答用户问题的机器人。不幸的是,LLM 技术的本质在 LLM 响应中引入了不可预测性。此外,LLM 训练数据是静态的,并引入了其所掌握知识的截止日期。
LLM 面临的已知挑战包括:
在没有答案的情况下提供虚假信息
当用户需要特定的当前响应时,提供过时或通用的信息
从非权威来源创建响应
由于术语混淆,不同的培训来源使用相同的术语来谈论不同的事情,因此会产生不准确的响应
你可以将大型语言模型看作是一个过于热情的新员工,他拒绝随时了解时事,但总是会绝对自信地回答每一个问题。不幸的是,这种态度会对用户的信任产生负面影响,这是你不希望聊天机器人效仿的!
RAG 是解决其中一些挑战的一种方法。它会重定向 LLM,从权威的、预先确定的知识来源中检索相关信息。组织可以更好地控制生成的文本输出,并且用户可以深入了解 LLM 如何生成响应。
本文探讨了 15 种高级 RAG(检索增强生成)技术,旨在提升生成式 AI 系统的输出质量和整体性能稳健性。这些技术涵盖了从预检索到最终文本生成的各个阶段,为 AI 系统的精细化调整提供了丰富的选项
提高信息密度: 利用 LLM 对原始数据进行处理、清理和标记,剔除无关信息,提高信息密度,降低 LLM token 使用量和成本,并提升检索准确性。文中以使用 GPT-4 提取网页关键信息为例进行了说明,并强调了信息损失的风险和缓解策略。
应用分层索引检索: 利用 LLM 生成文档摘要,创建多层检索系统,先通过摘要筛选相关文档,再进行更精细的检索,提高检索效率
利用假设问题索引提升检索对称性: 使用 LLM 生成文档对应的假设问题和答案,并将问题作为检索单元,以解决查询与文档之间语义不对称的问题,提高检索准确性。
使用 LLM 对数据索引中的信息进行去重: 通过聚类和 LLM 的信息提取能力,将数据索引中的信息去重,减少冗余,优化 LLM 的上下文窗口。
测试和优化分块策略: 根据 embedding 模型、内容性质、查询复杂度、LLM 能力、数据量等因素,对分块策略进行 A/B 测试和优化,找到最佳分块大小和重叠率
利用 LLM 优化搜索查询: 利用 LLM 的理解能力和对搜索引擎规则的掌握,将用户查询转化为更有效的搜索查询,提升检索效率和结果质量。文中分别给出了简单搜索查询和对话式 AI 系统查询优化的示例
利用假设文档嵌入解决查询-文档不对称问题(HyDE): 利用 LLM 根据用户查询生成假设文档或文档片段,并将其用于语义搜索,解决查询-文档不对称问题,提高检索准确性
实施查询路由或 RAG 决策器模式: 使用 LLM 将查询路由到适当的数据库,或判断是否需要进行 RAG 检索,以降低成本和提升效率
使用重排序优化搜索结果: 使用重排序模型优化搜索结果的优先级,将最相关的文档置于最前,提升 LLM 回答的准确性
使用上下文提示压缩优化搜索结果: 利用 LLM 过滤、重新格式化或压缩检索到的信息,使之更适合 LLM 生成最终回复
使用纠正性 RAG 对检索到的文档进行评分和过滤: 使用训练好的模型对检索结果进行评估,过滤掉不正确或不相关的文档,提升 LLM 回答的准确性
优化提示和上下文窗口大小: 对生成提示进行优化,并通过实验确定最佳的上下文窗口大小,提升 LLM 回答的质量
使用思维链提示消除噪声: 使用思维链提示引导 LLM 进行推理,增强其在存在噪声或无关上下文时的稳健性
使用 Self-RAG 使系统具备自我反思能力: 通过微调,使 LLM 能够在生成过程中输出特殊的反射标记(检索或批判标记),从而评估检索结果的相关性和生成结果的质量,并进行优化
通过微调忽略不相关上下文: 对 LLM 进行微调,使其能够忽略不相关的上下文,提升其在 RAG 任务中的性能
使用自然语言推理使 LLM 对不相关上下文更加稳健: 使用自然语言推理模型过滤掉不相关的上下文,提升 LLM 回答的准确性
输入和输出防护: 对 RAG 系统的输入和输出进行防护,防止出现越狱或恶意攻击,尤其是在金融服务和医疗保健等高监管行业
评估 RAG 系统: 建立可扩展的自动化评估方法,以监控 RAG 系统的性能,确保其质量和准确性
幻觉率: 关注 AI 幻觉问题,并采取措施进行检测、测量和缓解
其他潜在改进
• 微调 embedding 模型
• 使用知识图谱
• 使用长上下文 LLM
总而言之,高级 RAG 技术为提升生成式 AI 系统的性能提供了丰富的工具和方法。通过合理地选择和应用这些技术,可以显著提高信息密度、检索准确性和用户回复质量。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-13
RAGCache:让RAG系统更高效的多级动态缓存新方案
2024-11-13
Glean:企业AI搜索,估值46亿美元,ARR一年翻4倍
2024-11-12
从安装到配置,带你跑通GraphRAG
2024-11-12
蚂蚁 KAG 框架核心功能研读
2024-11-12
【RAG】浅看引入智能信息助理提升大模型处理复杂推理任务的潜力-AssisTRAG
2024-11-12
体验完百度世界2024上的iRAG,我觉得AI绘图也可以没有幻觉了。
2024-11-12
提升RAG文档效率,10种有效策略
2024-11-12
揭秘RAG:全方位解析RAG检索中的意图识别,如何助力智能问答
2024-07-18
2024-07-09
2024-05-05
2024-07-09
2024-05-19
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21