微信扫码
与创始人交个朋友
我要投稿
构建基于大型语言模型(LLM)的应用程序需要将LLM的回答与我们行业的特定领域数据结合起来。
尽管微调LLM可以使其更了解特定领域,但仍可能存在不准确和幻觉的问题。
因此,出现了检索增强生成(RAG)技术,以便让LLM的回答基于具体数据并提供来源支持。
RAG的工作原理是为你想使用的数据片段创建文本嵌入,这样可以将源文本的一部分放入LLM用来生成回答的语义空间中。同时,RAG系统还能返回源文本,这样LLM的回答就有了人类撰写的文本作为支持,并且附带引用。
将分块后的文本数据构建索引,以便快速检索相关块。
from sklearn.feature_extraction.text import TfidfVectorizer
def build_index(chunks):
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(chunks)
return vectorizer, X
根据查询在索引中检索相关的文本块。
def retrieve_chunks(query, vectorizer, X, top_k=5):
query_vec = vectorizer.transform([query])
scores = (X * query_vec.T).toarray()
top_indices = scores.flatten().argsort()[-top_k:][::-1]
return top_indices
将检索到的相关块提供给LLM,生成最终的响应。
def generate_response(query, chunks, vectorizer, X, model):
top_indices = retrieve_chunks(query, vectorizer, X)
relevant_chunks = [chunks[i] for i in top_indices]
context = ' '.join(relevant_chunks)
response = model.generate_response(query, context)
return response
在RAG系统中,我们需要特别注意数据片段的大小。
如何划分数据就是所谓的分块,这比直接嵌入整篇文档要复杂得多。
分块(Chunking)是将长文档或数据集切割成较小的、独立的部分,以便于处理、存储和检索。
这种方法在处理大规模文本数据时尤为重要,因为LLM对长文本的处理能力有限。
• 减少计算资源消耗:处理较小的文本块比处理整篇长文档消耗的资源少。
• 提高检索效率:较小的块可以加快搜索和匹配过程,因为每个块包含的信息更集中。
• 提升生成质量:模型可以更专注于特定的内容块,从而生成更准确和相关的响应。
在构建基于大型语言模型(LLM)的应用程序时,分块数据的大小对于搜索结果的准确性至关重要。
当你嵌入一段数据时,整个数据会被转换为一个向量
如果一个块包含的内容过多,向量就会失去对特定内容的准确描述。
如果分块太小,则会失去数据的上下文。
Pinecone 公司的 Roie Schwaber-Cohen指出:“开始思考如何将我的内容分成更小的块的原因是,这样当我检索时,它实际上能够命中正确的内容。你将用户的查询嵌入,然后将其与内容的嵌入进行比较。如果你嵌入的内容大小与用户查询的大小差异很大,你就更可能得到较低的相似度得分。”
考虑到查询和响应的大小也至关重要。根据 Schwaber-Cohen 的观点,你将文本块向量与查询向量进行匹配。
但你还需要考虑作为响应的块的大小。
例如,如果你嵌入了整章的内容而不是一页或一段,向量数据库可能会在查询和整章之间找到一些语义相似性。
但所有章节都相关吗?可能不是。
更重要的是,LLM 能否从检索到的内容和用户的查询中产生相关的响应?
分块并不是一个简单的问题。行业并没有一种通用的标准。
最佳的分块策略取决于具体的用例。
幸运的是,你不仅仅是简单地对数据进行分块、向量化然后碰运气。
你还有元数据。这可以是指向原始块或更大文档部分的链接、类别和标签、文本,或者实际上任何内容。
正如 Schwaber-Cohen 所说:“这有点像一个 JSON blob,你可以用它来过滤东西。如果你只是在寻找特定子集的数据,你可以大大减少搜索空间,并且你可以使用元数据将你在响应中使用的内容链接回原始内容。”
总而言之,大小很重要。而选择最佳的分块策略和利用元数据则可以进一步提高检索和响应的效率和准确性。
一般有以下四种分块策略:
在处理数据时,一种常见的方法是将文本分成固定大小的块。这种方法适用于内容格式和大小相似的数据集,如新闻文章或博客帖子。虽然这种方法成本较低,但它并未考虑到分块内容的上下文,可能对某些应用场景影响不大,但对于其他场景可能非常重要。
示例:
def chunk_text(text, chunk_size=500):
words = text.split()
chunks = []
current_chunk = []
current_length = 0
for word in words:
current_length += len(word) + 1 # 计算单词长度和空格
if current_length > chunk_size:
chunks.append(' '.join(current_chunk))
current_chunk = [word]
current_length = len(word) + 1
else:
current_chunk.append(word)
chunks.append(' '.join(current_chunk)) # 添加最后一个块
return chunks
如果数据集包含多种文档类型,一种可行的方法是使用随机大小的块。这种方法可能捕捉到更广泛的语义上下文和主题,而不受任何给定文档类型的约定的限制。然而,随机块可能导致文本被打断,产生无意义的块。
滑动窗口方法是一种常用的分块策略,它使新的块与前一个块的内容重叠,并包含部分内容。这样可以更好地捕捉每个块周围的上下文,提高整个系统的语义相关性。然而,这也需要更多的存储空间,并可能导致冗余信息,使搜索过程变慢,并增加RAG系统提取正确来源的难度。
上下文感知分块方法根据标点符号或Markdown/HTML标签等语义标记将文本分块。这种方法可以递归地将文档分成更小、重叠的片段,每个片段都能保持上下文的完整性。尽管这种方法可以提供良好的结果,但它需要额外的预处理来分割文本,可能增加了计算需求,从而减慢了分块过程。
要确定适合你用例的最佳分块策略,需要一些工作。
测试不同方法的效果,并根据评估结果选择最佳策略。通过人工审核和LLM评估器对它们进行评分。当你确定哪种方法表现更好时,你可以通过基于余弦相似度分数对结果进行进一步过滤来进一步增强结果。
分块只是生成式AI技术拼图中的一部分,我们还需要LLM、矢量数据库和存储。
最重要的是,要有一个明确的目标,这样才能确保项目取得成功。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-26
GraphRAG和轻量级LightRAG技术及应用案例深度解析
2024-12-26
使用 Markdown 和 Gemini 为 RAG 解锁 PDF
2024-12-26
长文 | RAG的实战指南及探索之路
2024-12-26
2024年,百万上下文依然没有杀死RAG
2024-12-26
在推荐、RAG等业务中,如何完成亿级向量的快速检索?
2024-12-25
RAG 工程实践优化点及方法总结
2024-12-25
强化 RAG 应用:生成式 AI 返回准确率提升的高效策略与实践
2024-12-25
RAG开发中,如何用Milvus 2.5 BM25算法实现混合搜索
2024-07-18
2024-05-05
2024-06-20
2024-09-04
2024-05-19
2024-07-09
2024-07-09
2024-07-07
2024-06-13
2024-07-07
2024-12-26
2024-12-24
2024-12-21
2024-12-14
2024-12-01
2024-11-27
2024-11-25
2024-11-06