微信扫码
添加专属顾问
我要投稿
BM25(最佳匹配25)和RRF(倒数秩融合)是两种在检索增强生成(RAG)系统中用于改进大型语言模型(LLMs)检索步骤的技术。以下将详细介绍它们的工作原理及其在RAG流程中的作用。
BM25是一种概率信息检索模型,它基于与查询的相关性对文档进行排名。作为传统TF-IDF模型的扩展,BM25在许多检索任务中表现出色,因此被广泛应用。
BM25的工作原理:
术语频率(TF):指一个术语在文档中出现的次数。BM25通过考虑文档长度来调整这一指标,避免较长的文档由于术语频繁出现而被错误地赋予更高权重。
反向文档频率(IDF):衡量一个术语在所有文档中出现的稀有程度。稀有术语会被赋予更高的权重,以反映其重要性。
规范化:根据文档长度进行调整,确保不同长度的文档之间可以公平比较。
在RAG中的应用:
索引:利用BM25对文档集合进行索引,预先计算术语频率和其他相关统计数据。
查询处理:当查询被发出时(例如,LLM需要额外的上下文信息),BM25根据与查询的相关性对每个文档进行评分。
排名:根据BM25评分对文档进行排序,并将评分最高的文档作为相关上下文供LLM使用。
RRF是一种集成技术,能够将多个检索模型的结果组合在一起。尤其在不同检索模型各自擅长不同相关性方面的情况下,RRF非常有用。
RRF的工作原理:
排名组合:每个检索模型生成一个文档的排名列表。RRF通过基于文档在每个排名列表中的位置为其分配分数,将这些排名列表结合在一起。
分数计算:文档的最终分数通过RRF公式计算得到。
融合:根据RRF综合分数对文档进行重新排名,生成一个包含各模型优势的最终文档列表。
score = 0.0
for q in queries: # loop over queries send to different search engines
if d in result(q):
score += 1.0 / ( k + rank(result(q), d))
return score
# where
# k is a ranking constant
# q is a query in the set of queries
# d is a document in the result set of q
# result(q) is the result set of q
# rank( result(q), d ) is d's rank within the result(q) starting from 1
def reciprocal_rank_fusion(queries, d, k, result_func, rank_func): return sum([1.0 / (k + rank_func(result_func(q), d)) if d in result_func(q) else 0 for q in queries])
在RAG中的应用:
多模型使用:使用多个检索模型(例如BM25、神经检索模型)独立检索并对查询文档进行排名。
秩融合:应用RRF合并这些模型的排名列表,生成一个更为稳健的相关文档排名列表。
上下文检索:将RRF融合后的排名靠前的文档提供给LLM,以生成更准确且相关的响应。
初始检索:首先使用BM25执行初始检索,利用其在基于术语相关性排名文档时的效率和有效性。
集成方法:将其他检索模型(如神经检索模型)与BM25结合使用。
秩融合:使用RRF将BM25与其他检索模型的排名结果结合,生成一个从多个相关性角度受益的最终文档列表。
增强生成:将RRF融合列表中排名靠前的文档输入到LLM中,以提高生成准确且上下文相关的响应的能力。
通过在RAG检索步骤中结合BM25和RRF,可以充分利用不同检索模型的优势,提升检索文档的整体质量和相关性,从而增强LLM生成精准响应的性能。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-20
谈谈RAG 的四个级别
2025-04-20
大模型能像专业分析师一样提取用户需求吗?
2025-04-19
基于Embedding分块 - 文本分块(Text Splitting),RAG不可缺失的重要环节
2025-04-19
RAG升级-基于知识图谱+deepseek打造强大的个人知识库问答机器人
2025-04-19
RAG vs. CAG vs. Fine-Tuning:如何为你的大语言模型选择最合适的“脑力升级”?
2025-04-19
低代码 RAG 只是信息搬运工,Graph RAG 让 AI 具备垂直深度推理能力!
2025-04-18
微软PIKE-RAG全面解析:解锁工业级应用领域知识理解与推理
2025-04-18
AI 记忆不等于 RAG:对话式 AI 为何需要超越检索增强
2024-10-27
2024-09-04
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-04-20
2025-04-19
2025-04-18
2025-04-16
2025-04-14
2025-04-13
2025-04-11
2025-04-09