微信扫码
添加专属顾问
我要投稿
探索MaxKB开源知识库问答系统背后的技术细节和优化逻辑。 核心内容: 1. MaxKB的技术架构和核心功能模块概览 2. 支持的大语言模型和文档自动拆分向量化技术 3. 特色功能:文档分片与问题生成的代码分析和实现方式
MaxKB是一个基于大语言模型和RAG(检索增强生成)的开源知识库问答系统。该项目具有以下主要特点:
技术架构:
核心功能模块:
主要特点:
部署方式:
版本划分:
项目结构清晰,采用了Django的多应用模块化设计,前后端分离架构,使用了现代化的AI技术栈。
我将为您查找相关的代码并分析这个特别的功能实现方式。
首先,让我找一下与文档分片和问题生成相关的代码:
Search files... 让我找一下与问题和分片关联相关的代码:
Search files... 让我看一下查询阶段的代码,特别是如何处理分片问题:
Search files... 让我们找一下问题生成的代码:
Search files... 现在让我看看如何将问题和分片关联起来以及在搜索中使用的部分:
Search files... 让我查看一下用于通过问题与分片进行匹配的SQL语句:
Read file: apps/dataset/task/tools.py 让我查看ProblemParagraphMapping的模型和相关操作:
Search files...
Search files... 根据我对代码的分析,我现在能够为您解释MaxKB中为导入后的文档分片加上相关问题从而提高召回率的功能实现方式:
MaxKB使用以下几个关键实体模型来实现这个功能:
当文档被导入系统后,MaxKB会执行以下流程来为分片生成问题:
dataset/task/generate.py
中,通过generate_related_by_document_id
函数启动分片问题生成任务。ui/src/locales/lang/zh-CN/views/document.ts
中,基本格式是:内容:{data}
请总结上面的内容,并根据内容总结生成5个问题。
回答要求:
- 请只输出问题;
- 请将每个问题放置<question>标签中。
save_problem
函数在dataset/task/tools.py
中被保存,它会使用正则表达式提取标签中的问题内容,并创建Problem实体。ProblemParagraphMapping
对象,建立问题和段落之间的关联关系。为提高检索效率,系统会对问题和段落都进行向量化处理:
common/event/listener_manage.py
中,embedding_by_problem
和embedding_by_paragraph
函数分别处理问题和段落的向量化。Embedding
表中,包括了来源ID(source_id)、来源类型(source_type,区分问题和段落)、段落ID、文档ID等信息。embedding.sql
中定义的SQL语句写入PostgreSQL的pgvector扩展中。当用户提问时,MaxKB通过以下方式利用预生成的问题提高召回率:
在apps/application/flow/step_node/search_dataset_node/impl/base_search_dataset_node.py
中的execute
方法处理查询请求。
系统支持三种搜索模式(在embedding/models/embedding.py
中定义的SearchMode
):
embedding_search.sql
实现)keywords_search.sql
实现)blend_search.sql
实现)关键机制:当用户提问时,系统会:
embedding_search.sql
)计算相似度分数这种机制的精妙之处在于:用户的问题不仅会与段落内容进行匹配,还会与预先生成的问题进行匹配。当用户问题与某个预生成问题相似时,系统会通过ProblemParagraphMapping
关联找到对应的段落。
这种设计之所以能提高召回率,主要基于以下原因:
问题表达和内容表达的差异桥接:用户提问的方式(如"如何解决xxx问题?")通常与内容的表达方式(如陈述句"xxx可以通过yyy解决")有差异。预生成的问题作为"桥梁",使得即使用户的提问方式与内容表达方式不同,也能找到相关段落。
语义扩展:为每个段落生成多个相关问题,本质上是对段落内容的语义扩展,增加了匹配的可能性。
匹配路径多样化:查询时,系统提供了多种搜索路径:
通过SQL查询(如embedding_search.sql
)可以看出,系统会对同一段落的不同匹配结果(如直接匹配段落或匹配预生成问题)取其中相似度最高的一个,确保结果不会重复。
总结来说,MaxKB通过为分片生成相关问题并建立问题-分片映射关系,在查询时同时搜索问题和分片的向量表示,有效地解决了用户提问方式与内容表达方式之间的差异,从而显著提高了知识库的召回率。这是一种结合了大模型问题生成能力和向量检索技术的巧妙解决方案。
我来为您找出实现这个核心逻辑的代码。这部分逻辑主要在SQL查询和查询结果处理中实现:
Read file: apps/embedding/sql/embedding_search.sql 这里的SQL查询是核心逻辑的关键部分。让我来分析一下这个embedding_search.sql
文件的关键部分:
内部查询部分:
( SELECT *, ( 1 - ( embedding.embedding <=> %s ) ) AS similarity FROM embedding ${embedding_query}) TEMP
这部分计算用户问题向量与embedding表中的所有向量(包括问题和段落)的相似度,使用<=>
是PostgreSQL的pgvector扩展提供的向量相似度计算算符。
DISTINCT ON子句部分:
SELECT DISTINCT ON ("paragraph_id") ( similarity ),* ,similarity AS comprehensive_score
FROM ... TEMP
ORDER BY paragraph_id, similarity DESC
这是关键部分,DISTINCT ON ("paragraph_id")
确保每个段落(paragraph_id)只会出现一次。ORDER BY paragraph_id, similarity DESC
确保对于每个段落,取相似度最高的那个匹配结果。
通过这个SQL查询,系统确保了每个段落只出现一次,且是相似度最高的那个匹配结果,无论这个匹配是直接通过段落内容匹配的,还是通过该段落关联的预生成问题匹配的。
让我们看一下这个SQL是如何在代码中被调用的:
Read file: apps/embedding/vector/pg_vector.py 现在让我们看下搜索查询方法的实现:
Read file: apps/embedding/vector/pg_vector.py 让我们看看数据如何被存储和准备的,特别是问题和段落之间的关联:
Read file: apps/common/sql/list_embedding_text.sql 让我们看一下搜索结果处理部分,这是实现从向量库检索结果到最终判断的核心环节:
Read file: apps/application/flow/step_node/search_dataset_node/impl/base_search_dataset_node.py 让我来看看一下段落匹配和相似度处理的代码:
Read file: apps/application/flow/step_node/search_dataset_node/impl/base_search_dataset_node.py 根据我对代码的分析,现在我可以更详细地解释MaxKB如何实现在查询阶段对同一段落的不同匹配结果取最高相似度的核心逻辑:
最关键的逻辑在apps/embedding/sql/embedding_search.sql
中:
SELECT
paragraph_id,
comprehensive_score,
comprehensive_score as similarity
FROM
(
SELECT DISTINCT ON
("paragraph_id") ( similarity ),* ,similarity AS comprehensive_score
FROM
( SELECT *, ( 1 - ( embedding.embedding <=> %s ) ) AS similarity FROM embedding ${embedding_query}) TEMP
ORDER BY
paragraph_id,
similarity DESC
) DISTINCT_TEMP
WHERE comprehensive_score>%s
ORDER BY comprehensive_score DESC
LIMIT %s
这个SQL查询的核心逻辑是:
最内层子查询:计算用户查询向量与所有向量的相似度
SELECT *, ( 1 - ( embedding.embedding <=> %s ) ) AS similarity FROM embedding ${embedding_query}
<=>
是PostgreSQL的pgvector扩展提供的余弦距离计算操作符1 - (向量距离)
转换为相似度分数(1为完全相似,0为完全不相似)中间层查询:对每个段落ID选取最高相似度的记录
SELECT DISTINCT ON ("paragraph_id") ( similarity ),* ,similarity AS comprehensive_score
FROM ... TEMP
ORDER BY paragraph_id, similarity DESC
这就是系统如何处理同一段落可能存在多个匹配来源(直接匹配段落内容或通过关联问题匹配)的关键机制。
最外层查询:过滤低相似度结果并排序
WHERE comprehensive_score>%s
ORDER BY comprehensive_score DESC
LIMIT %s
在apps/common/sql/list_embedding_text.sql
中可以看到,系统如何准备用于向量化的文本数据:
-- 第一部分:准备问题的文本数据
SELECT
problem_paragraph_mapping."id" AS "source_id",
paragraph.document_id AS document_id,
paragraph."id" AS paragraph_id,
problem.dataset_id AS dataset_id,
0 AS source_type, -- 0表示问题类型
problem."content" AS "text",
paragraph.is_active AS is_active
FROM
problem problem
LEFT JOIN problem_paragraph_mapping problem_paragraph_mapping ON problem_paragraph_mapping.problem_id=problem."id"
LEFT JOIN paragraph paragraph ON paragraph."id" = problem_paragraph_mapping.paragraph_id
${problem}
UNION
-- 第二部分:准备段落的文本数据
SELECT
paragraph."id" AS "source_id",
paragraph.document_id AS document_id,
paragraph."id" AS paragraph_id,
paragraph.dataset_id AS dataset_id,
1 AS source_type, -- 1表示段落类型
concat_ws(E'\n',paragraph.title,paragraph."content") AS "text",
paragraph.is_active AS is_active
FROM
paragraph paragraph
${paragraph}
这个SQL查询通过UNION合并了两种数据:
重要的是,在这个合并查询中,每个问题记录也被关联到了相应的段落ID(paragraph_id),这是实现通过问题匹配找到相关段落的关键。
在apps/application/flow/step_node/search_dataset_node/impl/base_search_dataset_node.py
中的execute
方法处理了搜索过程和结果:
def execute(self, dataset_id_list, dataset_setting, question,
exclude_paragraph_id_list=None,
**kwargs) -> NodeResult:
# ...
embedding_value = embedding_model.embed_query(question)
# ...
embedding_list = vector.query(question, embedding_value, dataset_id_list, exclude_document_id_list,
exclude_paragraph_id_list, True, dataset_setting.get('top_n'),
dataset_setting.get('similarity'), SearchMode(dataset_setting.get('search_mode')))
# ...
paragraph_list = self.list_paragraph(embedding_list, vector)
result = [self.reset_paragraph(paragraph, embedding_list) for paragraph in paragraph_list]
result = sorted(result, key=lambda p: p.get('similarity'), reverse=True)
# ...
这里:
vector.query
方法执行向量相似度搜索list_paragraph
函数获取匹配的段落详细信息reset_paragraph
重新格式化段落信息,添加相似度分数特别是,reset_paragraph
方法将搜索结果中的相似度分数附加到段落对象上:
@staticmethod
def reset_paragraph(paragraph: Dict, embedding_list: List):
filter_embedding_list = [embedding for embedding in embedding_list if
str(embedding.get('paragraph_id')) == str(paragraph.get('id'))]
if filter_embedding_list is not None and len(filter_embedding_list) > 0:
find_embedding = filter_embedding_list[-1]
return {
**paragraph,
'similarity': find_embedding.get('similarity'),
# ...其他属性
}
总结来说,MaxKB通过PostgreSQL的DISTINCT ON语法结合精心设计的SQL查询,巧妙地实现了在搜索阶段对同一段落的不同匹配结果(可能来自段落本身或与段落关联的预生成问题)取相似度最高的一个。这样既避免了结果重复,又保证了能选择最佳匹配路径(直接匹配段落或间接通过问题匹配段落)。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-13
LangChain + 模型上下文协议(MCP):AI 智能体 Demo
2025-04-09
AI Agents框架选择指南:仿佛在玩初创公司模拟经营游戏
2025-04-08
LangChain 智能体:使用自定义工具
2025-04-06
LangChain最新指南:高效构建AI应用的全流程解析
2025-04-04
ChatBlog - 个人博客AI互动的尝试
2025-04-03
Langchain与LlamaIndex应该选哪个
2025-04-01
langchain4j+Chroma小试牛刀
2025-03-31
Manus行不行我不知道,但LangManus是真行!
2024-10-10
2024-07-13
2024-04-08
2024-06-03
2024-09-04
2024-08-18
2024-04-08
2024-03-28
2024-06-24
2024-07-10
2025-03-22
2025-03-22
2025-03-15
2025-02-05
2024-12-02
2024-11-25
2024-10-30
2024-10-11