微信扫码
与创始人交个朋友
我要投稿
文档长度过长:现代文档往往包含大量信息,例如企业的内部报告、法律文书、科研论文等。如果直接将长文档嵌入到向量空间中进行检索,容易出现信息冗余,甚至降低检索的效率和精度。
检索精度不高:许多文档检索系统在面对较长的文档时难以精准匹配用户的查询。这种情况下,用户的查询结果往往与其期望值有偏差,尤其是在查询较短且具体时,直接检索长文档难以提供理想的答案。
上下文连贯性差:为了提高检索精度,系统可能会将文档细分为更小的块。然而,这种做法往往会牺牲上下文的连贯性,导致用户在获得片段化信息时无法完整理解文档的内容。
Parent Chunks 分割:首先,将文档分割成较大的文本块,称为 Parent Chunks。每个 Parent Chunk 代表文档中的一个较大部分,通常包含多个段落或章节,大小可根据需求进行调整,常见设定为 2000 个字符左右。通过这样的分割,系统能够在保证上下文连贯性的同时,保持信息的整体性。
Child Chunks 分割:每个 Parent Chunk 进一步细分为更小的块,称为 Child Chunks。每个 Child Chunk 通常包含一个段落或几句话,大小同样可以根据需求设定,一般为 400 个字符。这一分割方式既能保留 Parent Chunk 的上下文关系,又能提高检索的精度。
Child Chunks 嵌入:使用预训练的模型(例如 BERT、GPT 等)将每个 Child Chunk 转换为向量。这些向量代表了文本块的语义信息,可以通过向量检索算法来进行比对和匹配。
保持关联关系:Child Chunks 与其对应的 Parent Chunk 保持关联,在后续的检索过程中可以对 Parent Chunk 进行合并,确保用户获取的信息上下文连贯。这种多层次分割结构不仅提高了检索的精度,还能保持文档整体的连贯性。
Query 嵌入:用户的查询被转换为向量形式,并与存储在数据库中的 Child Chunk 向量进行匹配。
Child Chunks 搜索:在向量数据库中搜索与查询向量相似的 Child Chunks。通过这种方式,系统能够精准匹配用户的查询,尤其是在短查询的情况下,Child Chunk 的检索精度更高。
Parent Chunks 确定:根据检索到的 Child Chunks,系统可以快速定位这些子块所属的 Parent Chunks,确保用户能够获得与查询上下文相关的完整信息。
合并 Parent Chunks:当检索结果返回多个相关的 Child Chunks 时,系统会自动合并这些子块对应的 Parent Chunks,形成一个完整的文档部分。
排序和过滤:为了确保用户获得最相关的结果,系统会对返回的 Parent Chunks 进行排序和过滤,以保证用户看到的内容是最符合其查询需求的。
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain_community.document_loaders import TextLoader
# 加载文档
loaders = [
TextLoader("example_data/FDR_State_of_Union_1944.txt"),
TextLoader("example_data/Lincoln_State_of_Union_1862.txt"),
]
docs = []
for loader in loaders:
docs.extend(loader.load())
# 创建Parent Chunks
parent_splitter = RecursiveCharacterTextSplitter(chunk_size=2000)
# 创建Child Chunks
child_splitter = RecursiveCharacterTextSplitter(chunk_size=400)
2. 向量嵌入
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddings
from langchain.storage import InMemoryStore
# 创建向量存储
vectorstore = Chroma(
collection_name="split_parents", embedding_function=OpenAIEmbeddings()
)
# 创建存储层
store = InMemoryStore()
# 创建检索器
retriever = ParentDocumentRetriever(
vectorstore=vectorstore,
docstore=store,
child_splitter=child_splitter,
parent_splitter=parent_splitter,
)
# 添加文档
retriever.add_documents(docs)
# 获取存储的文档数量
print(len(list(store.yield_keys())))
# 搜索相似的Child Chunks
sub_docs = vectorstore.similarity_search("justice breyer")
print(sub_docs[0].page_content)
# 获取相关的Parent Chunks
retrieved_docs = retriever.get_relevant_documents("justice breyer")
print(len(retrieved_docs[0].page_content))
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-21
全网最全ChatGPT财务分析提示词解决方案
2024-12-21
万字长文梳理基于LLM的Text-to-SQL发展进程
2024-12-20
从0到1解构数据问答系统架构:三层模型全解析
2024-12-19
博士眼镜 × 观远数据 × 飞书 | AI 和 BI 赋能业务实践
2024-12-19
传统水务如何借助AI完成智能化升级?一文看懂核心架构与实战应用!
2024-12-18
ChatBl有什么用,看这篇就够了!
2024-12-18
在Windows上使用RAGFlow+Ollama+Qwen2.5,搭建医疗问诊助手(附相关数据集和案例)
2024-12-16
LLM+数据分析,大模型的一个攻坚领域市场观察
2024-06-20
2024-06-14
2024-07-03
2024-06-06
2024-06-14
2024-06-21
2024-06-16
2024-06-07
2024-07-24
2024-10-09
2024-12-13
2024-11-19
2024-11-06
2024-10-25
2024-10-25
2024-10-25
2024-10-18
2024-10-09