AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


什么是RAG?大模型和RAG有什么关系?

发布日期:2025-03-15 15:34:37 浏览次数: 1583 来源:小生凡一
推荐语

大模型的幻觉问题如何破解?RAG技术给你答案。

核心内容:
1. 大模型幻觉现象及其成因
2. RAG技术原理与优势
3. 向量数据库与传统数据库的区别及应用

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

写在前面

在讲RAG之前,我们先说一个大模型的普遍现象,大家应该都用过大模型了,比如 ChatGPT、DeepSeek、豆包、文心一言等等…

那么大家在用的时候其实会发现,有时候大模型会乱回答,一本正经地胡说八道,语义不同,前言不搭后语。

举个例子:你问大模型,美国成立时间。大模型可能会回答:美国成立在1997年,距离现在已有400年的历史…

这种现象叫hallucination,幻觉。大模型本质的就是不断的预测下一个生成的文字应该是什么,而选择预测概率中最大的一个。

在这里插入图片描述
每个词预测的结果

产生幻觉的原因有很多,比如训练大模型本身的数据问题、过拟合、微调引起的知识丧失、推理机制的不完善等等

而我们要说的RAG就是为了降低大模型出现幻觉的概率,下面开始我们今天的主题。

RAG简介

RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索与文本生成的技术,旨在提升大语言模型在回答专业问题时的准确性和可靠性。在这里插入图片描述

核心原理‌‌为 检索 + 生成 两阶段流程 :

  • 检索阶段‌:将用户的问题转化为向量,从外部知识库或私有文档中(向量数据库)快速检索相关片段。
  • 生成阶段‌:将检索到的信息输入大模型,生成结合上下文的具体回答‌。

这样说可能比较生硬,打个比方:LLM在考试的时候面对陌生的领域,只会写一个解字(因为LLM也只是局限于特定的数据集进行训练),然后就准备放飞自我了,而此时RAG给了亿些提示,让LLM懂了开始往这个提示的方向做,最终考试的正确率从60%到了90%!

在这里插入图片描述
LLM+RAG

简单来说就是大家的开卷考试!!那么问题来了,LLM开卷考试的话,这个卷是啥呢?这里就涉及到向量数据库了。

为什么是向量数据库?传统数据库为啥不行?

向量数据库

向量数据库是通过存储文本的向量化表示,支持基于语义相似度的快速检索, 解决了传统关键词匹配无法捕捉上下文关联的问题‌。

如果使用传统数据库(如MySQL)结合关键词检索,但无法实现语义理解,可能导致漏检或误检‌。 举个例子,同一个query进行搜索:“2024年腾讯的技术创新”。

  • 向量数据库能匹配到语义相近但未包含关键词“腾讯”的文档(如“WXG的研发进展”)
  • 传统数据库只能匹配到包含关键词的

在这里插入图片描述那向量数据库是怎么知道语义相似的?

我们先明白向量数据库存储的是向量,不是文本,文本是大家能看懂的文字,而向量是一串浮点型数据。那么当所有的文本都成了浮点型数据后,计算机可以通过数学公式(比如余弦相似度),量化语义相似性。在这里插入图片描述传统数据库用原始文本检索,则无法处理同义词、多义词、语境差异等语义问题(例如“苹果”可能指水果或公司)‌,所以很多传统搜索都会进行query改写这一步,来让搜索的输入query更精确。当然不仅仅是文本,万物皆可embedding,图片、videos、音频等等…

RAG 过程

在这里插入图片描述
RAG过程

回到最开头的例子:

  1. 当用户对大模型提问,"美国的成立时间"
  2. 此时会通过embeding模型将文本转成向量
  3. 再到向量数据库中搜索语言相近的内容
  4. 向量数据库会给出一个TopK,例如 Top100
  5. 接着在进行过重排序模型,再筛选出Top N,例如 Top10
  6. 将搜索到的内容和用户所搜索的query词"美国的成立时间"整个成一个prompt一起给LLM
  7. LLM基于这些输入内容和自身内容进行输出。

这样就可以有效的控制大模型输出尽可能的相关并且语义相通的内容

那么向量数据库如何构造呢?在这里插入图片描述其实很简单:

  1. 将文章进行分片成多组chunk,也就是大量文本分解为较小段
  2. 进行向量化
  3. 存到向量数据库

那这里为什么要进行chunking呢?

chunking是为了把相同语义的 token 聚集在一起,不同语义的 token 互相分开,在长文档中各个片段的语义可能存在较大差异,如果将整个文档作为一个整体进行知识检索,会导致语义杂揉,影响检索效果。 将长文档切分成多个小块,可以使得每个小块内部表意一致,块之间表意存在多样性,从而更充分地发挥知识检索的作用。

所以如果我们的块太小会导致错过真正的相关内容,太大则可能导致搜索结果不准确

参考

[1] https://aws.amazon.com/what-is/retrieval-augmented-generation/ 

[2] https://blog.csdn.net/2301_78285120/article/details/144360003


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询