支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


基于爆火的deepseek探索RAG多知识源方案

发布日期:2025-02-09 15:53:39 浏览次数: 2535 作者:知奥AI行
推荐语

探索RAG多知识源方案,提升问题处理能力与准确性。

核心内容:
1. RAG系统的核心流程与局限性
2. 多知识源RAG方案的构建思路
3. 基于llama_index和deepseek的实践探索

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

众所周知,RAG的核心是检索和增强。其具体流程是当我们向一个简单的RAG系统提问时,RAG系统可根据问题特征,到数据库中检索,得到相关片段后,传输给大模型,让大模型做答案生成。

这样的RAG系统在应对具体问题时,可以较好地检索到相关片段,但当我们的问题变得宽泛起来时,就不那么适用了。

比如,我们有一篇文章,有好几个章节。当我们想问具体某个章节的知识点时,传统的RAG系统,在理想情况下可以锁定到知识点相关文本片段,可当我们问的问题没那么具体时,比如”这篇文章中第2章讲了什么内容?“、”这篇文章讲了什么内容时”,再按照原来检索逻辑就不适配了,因为这个时候的颗粒度不再是片段,而更为宏观,这个时候就不得不引入多知识源的RAG流程

简单RAG流程的痛点

从引言部分的案例可以了解到,一个简单的RAG流程往往由两部分组成:检索、生成。它需要利用外部知识源为LLM提供垂直领域的上下文信息,减少幻觉生成。但,简单的单一知识源的RAG流程却会有几个限制:

  1. 知识源单一:简单的RAG系统往往只考虑一个外部知识源,不能满足复杂多样的业务需求;
  2. 检索方式单一:面对不同的业务需求,需采用的检索方式不一样,比如有的适用向量检索、有的则需要做关键词匹配;
  3. 对问题处理粗暴:由于只具备单一的知识源及检索方式,自然也缺乏对问题做深入分析的能力。

为了实现多知识源的效果,常规处理思路是在前面检索模块前,增加一个意图识别模块,用于任务分发,本文基于llama_index和最近很火的deepseek进行了探索。

构建多知识源的RAG流程

流程

  1. 用户输入问题;
  2. 路由查询引擎利用deepseek分析问题类型;
  3. 如果是概括性问题则查询summary_query_engine,如果是细节性问题则查询vector_query_engine
  4. 查询得到到问题片段后,让给deepseek总结,得到答案。

具体实现

首先,加载文档。这里以openai发布的o1-preview-system-card-20240917.pdf为例:

from llama_index.core import SimpleDirectoryReader

document = SimpleDirectoryReader(input_files="./data/o1-preview-system-card-20240917.pdf").load_data()

将文档切片,并生成nodes

from llama_index.core.node_parser import SentenceSpitter

# 使用 SentenceSplitter 分割文档为节点
splitter = SentenceSplitter(chunk_size=1024)
nodes = splitter.get_nodes_from_documents(documents)

设置deepseekembedding

由于deepseek支持openai大模型的调用方式,可以在llama_index中使用OpenAILike类来对接,具体方法见代码:

from llama_index.llms.openai_like import OpenAILike
from llama_index.embeddings.huggingface import HuggingFaceEmbedding

Settings.embed_model = HuggingFaceEmbedding(
    model_name="BAAI/bge-large-zh"
)  # 使用 Hugging Face 的嵌入模型

Settings.llm = OpenAILike(
    model="deepseek-chat",  
    api_base="https://api.deepseek.com",  
    api_key="****"
    is_chat_model=True
)

创建索引和查询引擎

  • SummaryIndex的原理是将所有Nodes以列表的形式排列,在查询时,会将所有节点送给llm;
  • VectorStoreIndex,则是按照向量相似度来检索,返回最top_k个片段。
# 创建 SummaryIndex 和 VectorStoreIndex
summary_index = SummaryIndex(nodes, show_progress=True)
vector_index = VectorStoreIndex(nodes)

# 创建查询引擎
summary_query_engine = summary_index.as_query_engine(response_mode="simple_summarize")
vector_query_engine = vector_index.as_query_engine(similarity_top_k=2)

# 创建 QueryEngineTool
summary_tool = QueryEngineTool.from_defaults(
    query_engine=summary_query_engine,
    description="可用于对文章做概括性总结",
)

vector_tool = QueryEngineTool.from_defaults(
    query_engine=vector_query_engine,
    description="可用于文章中具体信息的检索",
)

最关键的一步,创建路由查询引擎

query_engine = RouterQueryEngine(
    selector=LLMSingleSelector.from_defaults(),
    query_engine_tools=[summary_tool, vector_tool],
    verbose=True,
)

结果验证

response = query_engine.query("文章主要讲了什么内容")
response = query_engine.query("文章主要讲了什么内容")

总结

本文主要在 路由查询引擎 和 检索库 两个方面,利用llama_indexdeepseek实现了多知识源的实现方案。

通过结果也可以看到,  VectorStoreIndex可以较好处理细节问题,SummaryIndex可以较好处理概括性问题,后续我们还可以丰富RouterQueryEngine的配置,来丰富RAG系统的功能。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询