支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


什么是RAG与为什么要RAG?

发布日期:2025-04-18 07:20:16 浏览次数: 1586 作者:AI拉呱
推荐语

深入了解AI领域中检索增强生成(RAG)技术的重要性和应用场景。

核心内容:
1. RAG技术的定义及其在增强LLM响应中的作用
2. RAG的三个关键步骤:检索、增强和生成
3. RAG在AI搜索引擎和客户服务聊天机器人中的应用实例

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家


检索增强生成(RAG)是一种流行的技术,通过在生成答案之前从知识库中检索相关的外部知识来增强 LLM 的响应。RAG 提高了准确性,减少了幻觉,并使模型能够提供更符合上下文和更新的信息。

RAG 包括三个步骤:检索、增强和生成。

检索 - 在此步骤中,系统会在外部知识源(例如向量数据库)中搜索相关信息,以基于用户查询找到相关的信息。

增强 - 检索到的信息随后与原始用户查询结合,形成 LLM 的提示。

生成 - LLM 处理提示并生成响应,整合其预训练知识和检索到的信息。这使得响应更加准确且符合上下文。

让我们通过一个简单的例子来理解 RAG。

m9MoNp

1 - 用户提出查询

示例:2025年ICC冠军奖杯的获胜者是谁?

2 - 检索器在知识源(例如维基百科或互联网)中搜索,并返回相关上下文。

示例检索上下文:"2025年ICC冠军奖杯于2月19日至3月9日在巴基斯坦和阿拉伯联合酋长国举行,最终印度成为胜利的冠军,赢得了该赛事历史上的第三个冠军。主要由巴基斯坦主办——这是自1996年以来他们的首次全球板球赛事——该赛事实施了混合模式,由于地缘政治考虑,印度的所有比赛都在迪拜进行。决赛在迪拜国际板球场上演了一场紧张的比赛,印度以四个门柱的优势击败新西兰,追平了252分的目标,并且还剩下一局。 "

3 - 查询、相关上下文和指令被组合成一个提示。

示例提示:

"仅根据上下文回答查询。如果在上下文中找不到查询的答案,请回复 - 我无法回答该查询。

查询:2025年ICC冠军奖杯的获胜者是谁?

*上下文:*2025年ICC冠军奖杯于2月19日至3月9日在巴基斯坦和阿拉伯联合酋长国举行,最终印度成为胜利的冠军,赢得了该赛事历史上的第三个冠军。主要由巴基斯坦主办——这是自1996年以来他们的首次全球板球赛事——该赛事实施了混合模式,由于地缘政治考虑,印度的所有比赛都在迪拜进行。决赛在迪拜国际板球场上演了一场紧张的比赛,印度以四个门柱的优势击败新西兰,追平了252分的目标,并且还剩下一局。"

4 - 提示被输入到大型语言模型 (LLM) 中,LLM 根据提供的上下文为用户查询生成答案。

示例输出:“印度在迪拜国际板球场举行的决赛中以四个门柱的优势击败新西兰,赢得了2025年ICC冠军奖杯。”

RAG 应用

AI 搜索引擎

AI 搜索引擎使用 RAG 通过将大型语言模型与实时数据检索相结合来增强搜索结果,提供准确且符合上下文的答案。它们擅长理解自然语言查询并从海量数据集中提取信息,使搜索更加直观和高效。

客户服务聊天机器人

客户服务聊天机器人利用 RAG 通过检索公司特定数据(如常见问题或产品手册)并生成类似人类的回复,提供个性化和准确的响应。这缩短了响应时间,提高了客户满意度,并处理了超出简单脚本答案的复杂查询。

法律文件分析

法律文件分析采用 RAG 筛选大量的法律文本、合同或判例法,检索相关的条款或先例,并用通俗易懂的语言总结它们。它通过加速研究、确保准确性并从密集的文档中识别关键见解来帮助律师。

科学研究辅助

科学研究辅助使用 RAG 通过检索和综合来自科学论文、数据集或实验的信息,为研究人员提供简洁的摘要或假设。它简化了文献综述、事实核查和跨大量研究存储库探索复杂主题的过程。

医疗决策支持

医疗决策支持将 RAG 集成到患者数据、医学文献或治疗指南中,协助医生做出基于证据的建议或诊断。它通过提供最新的、特定上下文的见解来增强决策过程,同时优先考虑患者隐私和准确性。

个性化教育

个性化教育应用 RAG 定制学习体验,检索相关的教育资源并生成适合学生学习进度和理解水平的解释。它通过适应个人需求并有效填补知识空白来支持导师或自学者。

技术文档搜索

技术文档搜索利用 RAG 导航复杂的手册、代码库或故障排除指南,检索精确的解决方案并清晰地解释它们。它通过快速解决技术查询并提供具有上下文感知的详细响应,为开发人员和工程师节省时间。


为什么需要 RAG?

大型语言模型(LLMs)通常在庞大的数据集上进行训练,这些数据集包括书籍、维基百科、网站的文本以及来自 GitHub 仓库的代码。这些训练数据收集到特定日期为止,这意味着 LLM 的知识有一个与训练数据最后更新时间相关的截止点。例如,如果 LLM 的训练数据只到2023年12月,那么它对之后发生的事情一无所知。

KXy4aS

没有 RAG 时,当用户询问超出该截止日期的事件、发展或信息时,LLM 面临一个问题:它要么无法提供答案(使查询未解决),更糟糕的是,它可能会“幻觉”,生成听起来合理但不正确的响应。这是因为 LLM 被设计为根据其训练数据中的模式预测和生成文本,而不是天生能够区分它们知道什么和不知道什么。
CDOKJE

通过 RAG,这一限制通过集成检索机制得以解决。当提出查询时——尤其是与近期事件相关的查询——检索器会从外部来源(如网络数据、数据库或 X 等平台上的帖子)实时获取相关且最新的上下文。

然后将检索到的信息作为附加上下文提供给 LLM,使其能够基于最新可用数据生成准确且有依据的响应,而不仅仅是依赖其静态的预训练知识。本质上,RAG 弥补了 LLM 固定训练截止点与不断变化的世界之间的差距,确保更可靠和当前的答案。

VJZQU2

总结如下:

LLMs 在大量书籍、维基百科、网站文本和 GitHub 代码库中进行训练。然而,它们的训练数据仅限于特定日期之前可用的信息。这意味着它们的知识在该日期被截断

没有 RAG 的问题

  • LLMs 无法回答 关于其训练截止日期之后发生的事件或事实的查询。
  • 它们可能会生成不正确或幻觉的响应,使得它们在提供最新信息时不可靠。

带有 RAG 的解决方案

  • 检索
     来自外部知识源(如数据库、API 或私人文档)的相关内容。
  • 提供
     检索到的相关内容作为上下文与查询一起提供给 LLM,使其能够生成事实准确的答案。
  • 确保响应以检索到的信息为依据,减少幻觉。

因此,RAG 通过保持 LLM 更新来增强它们,而无需频繁重新训练。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询