微信扫码
添加专属顾问
我要投稿
探索RAG多知识源方案,提升问题处理能力与准确性。 核心内容: 1. RAG系统的核心流程与局限性 2. 多知识源RAG方案的构建思路 3. 基于llama_index和deepseek的实践探索
众所周知,RAG的核心是检索和增强。其具体流程是当我们向一个简单的RAG系统提问时,RAG系统可根据问题特征,到数据库中检索,得到相关片段后,传输给大模型,让大模型做答案生成。
这样的RAG系统在应对具体问题时,可以较好地检索到相关片段,但当我们的问题变得宽泛起来时,就不那么适用了。
比如,我们有一篇文章,有好几个章节。当我们想问具体某个章节的知识点时,传统的RAG系统,在理想情况下可以锁定到知识点相关文本片段,可当我们问的问题没那么具体时,比如”这篇文章中第2章讲了什么内容?“、”这篇文章讲了什么内容时”,再按照原来检索逻辑就不适配了,因为这个时候的颗粒度不再是片段,而更为宏观,这个时候就不得不引入多知识源的RAG流程!
从引言部分的案例可以了解到,一个简单的RAG流程往往由两部分组成:检索、生成。它需要利用外部知识源为LLM提供垂直领域的上下文信息,减少幻觉生成。但,简单的单一知识源的RAG流程却会有几个限制:
为了实现多知识源的效果,常规处理思路是在前面检索模块前,增加一个意图识别模块,用于任务分发,本文基于llama_index
和最近很火的deepseek
进行了探索。
summary_query_engine
,如果是细节性问题则查询vector_query_engine
;deepseek
总结,得到答案。首先,加载文档。这里以openai发布的o1-preview-system-card-20240917.pdf为例:
from llama_index.core import SimpleDirectoryReader
document = SimpleDirectoryReader(input_files="./data/o1-preview-system-card-20240917.pdf").load_data()
将文档切片,并生成nodes
from llama_index.core.node_parser import SentenceSpitter
# 使用 SentenceSplitter 分割文档为节点
splitter = SentenceSplitter(chunk_size=1024)
nodes = splitter.get_nodes_from_documents(documents)
设置deepseek
和embedding
由于deepseek
支持openai
大模型的调用方式,可以在llama_index
中使用OpenAILike
类来对接,具体方法见代码:
from llama_index.llms.openai_like import OpenAILike
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
Settings.embed_model = HuggingFaceEmbedding(
model_name="BAAI/bge-large-zh"
) # 使用 Hugging Face 的嵌入模型
Settings.llm = OpenAILike(
model="deepseek-chat",
api_base="https://api.deepseek.com",
api_key="****",
is_chat_model=True
)
创建索引和查询引擎
SummaryIndex
的原理是将所有Nodes以列表的形式排列,在查询时,会将所有节点送给llm;VectorStoreIndex
,则是按照向量相似度来检索,返回最top_k个片段。# 创建 SummaryIndex 和 VectorStoreIndex
summary_index = SummaryIndex(nodes, show_progress=True)
vector_index = VectorStoreIndex(nodes)
# 创建查询引擎
summary_query_engine = summary_index.as_query_engine(response_mode="simple_summarize")
vector_query_engine = vector_index.as_query_engine(similarity_top_k=2)
# 创建 QueryEngineTool
summary_tool = QueryEngineTool.from_defaults(
query_engine=summary_query_engine,
description="可用于对文章做概括性总结",
)
vector_tool = QueryEngineTool.from_defaults(
query_engine=vector_query_engine,
description="可用于文章中具体信息的检索",
)
最关键的一步,创建路由查询引擎
query_engine = RouterQueryEngine(
selector=LLMSingleSelector.from_defaults(),
query_engine_tools=[summary_tool, vector_tool],
verbose=True,
)
response = query_engine.query("文章主要讲了什么内容")
response = query_engine.query("文章主要讲了什么内容")
本文主要在 路由查询引擎 和 检索库 两个方面,利用llama_index
和deepseek
实现了多知识源的实现方案。
通过结果也可以看到, VectorStoreIndex
可以较好处理细节问题,SummaryIndex
可以较好处理概括性问题,后续我们还可以丰富RouterQueryEngine
的配置,来丰富RAG系统的功能。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-21
改进RAG:利用混合搜索与重排序优化检索效果(含代码示例)
2025-04-21
检索增强生成(RAG)深度教程
2025-04-21
MCP 实践:基于 MCP 架构实现知识库答疑系统
2025-04-20
谈谈RAG 的四个级别
2025-04-20
大模型能像专业分析师一样提取用户需求吗?
2025-04-19
基于Embedding分块 - 文本分块(Text Splitting),RAG不可缺失的重要环节
2025-04-19
RAG升级-基于知识图谱+deepseek打造强大的个人知识库问答机器人
2025-04-19
RAG vs. CAG vs. Fine-Tuning:如何为你的大语言模型选择最合适的“脑力升级”?
2024-10-27
2024-09-04
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-04-20
2025-04-19
2025-04-18
2025-04-16
2025-04-14
2025-04-13
2025-04-11
2025-04-09