微信扫码
与创始人交个朋友
我要投稿
熟悉搜推的小伙伴可能知道,搜推中也有个叫Rerank的,因为在Rerank前面,一般还有粗排、精排,而RAG中就一个排序模型,怎么就是Rerank了呢。这是因为在RAG中,检索阶段一般只有Embedding一路召回,多的时候也只不过是稀疏+稠密的RRF集成,因此检索结果无论如何都是有顺序的,也就是说已经是排过序的了,所以此处的再次排序,叫Rerank。
既然都是排序,加Rerank的意义在哪?使用Embedding这种检索模型检索时,问题和答案都使用Embedding表示,由于问题和答案本身的表述方式、用词分布等差异比较大,直观的理解是问题首先是个问句,一般比较简短,答案通常是陈述句,一般比较详细,这俩用相同的方式表征,肯定多少是会有“对不齐”的问题的,Rerank就是把这两个放在一起,举个例子大家感受一下:
问题:介绍一下北京?
正确的文档:北京市(Beijing),简称“京”,古称燕京、北平,是中华人民共和国首都、直辖市、国家中心城市、超大城市, 国务院批复确定的中国政治中心、文化中心、国际交往中心、科技创新中心,中国历史文化名城和古都之一,世界一线城市。截至2023年10月,北京市下辖16个区,总面积16410.54平方千米。2023年末,北京市常住人口2185.8万人。
其他文档:介绍一下故宫?
如果使用Embedding检索,就有可能把“介绍一下故宫?”检索回来了,因为这俩从Embedding的角度看实在太像了,但你如果把“介绍一下北京?<SEP>介绍一下故宫?”放一起,Rerank模型大概不会判断他们是应该在一起的,因此它的相似性得分会比较低,而“介绍一下北京?<SEP>北京市(Beijing),简称“京”,古称燕京、北平,是中华人民共和国首都、直辖市、国家中心城市、超大城市, 国务院批复确定的中国政治中心、文化中心、国际交往中心、科技创新中心,中国历史文化名城和古都之一,世界一线城市。截至2023年10月,北京市下辖16个区,总面积16410.54平方千米。2023年末,北京市常住人口2185.8万人。”类似这种表述,其实在训练集中有可能出现,因此Rerank的相似性得分会高。
下面借用一下来自Cohere官方博客的Rerank流程图:
https://cohere.com/blog/rerank
Rerank模型比较常见的架构是基于transformers的encoder-only,也就是BERT的衍生模型。BERT论文发布时,介绍了几个典型的NLP任务,其中一个是文本蕴含,它判断的是两个句子,他们之间是蕴含、矛盾、还是中立关系,Rerank模型与之类似,也是输入两个句子,中间用一个分隔符分割开,只不过输出的是这两个句子的相似度。
下表中的“检索优化(5)常用Reranker”,是在“检索优化(4)BM25和混合检索”基础上,增加Reranker的结果。
从下表可以看出,加入Reranker后,检索性能普遍是有提升的,全流程问答也普遍有大幅度提升,不过需要注意的是,在有些项目中,在检索后加未经微调的Reranker,性能反而可能会下降,这个需要大家在实际项目中尝试,下一篇文章会介绍如何对BGE Reranker进行微调。
3 核心代码
本文对应的完整代码已开源,地址在:https://github.com/Steven-Luo/MasteringRAG/blob/main/retrieval/05_reranker.ipynb
这部分,会首先介绍几种常用的Reranker API,最后会介绍如何与检索结果结合。
这应该是最有名的reranker了,cohere公司主打的就是Reranker模型。
首先访问https://dashboard.cohere.com/api-keys申请一个API Key,然后安装依赖:
注意:下面这两种方式,都需要有代理,否则来自国内的请求会被拒绝,使用时,环境变量设置
http_proxy
和https_proxy
即可,免费用户每个月有1000次调用额度。在写这篇文章之前做实验时,它的检索效果可以与bge-reranker-large打平,但在后续再次运行时,由于超出调用额度,所以代码仓库中没有实际的运行结果,但代码是可以运行的,大家可以自行尝试。
使用官方原生API:
或者使用Langchain封装的API:
这个是智源(BAAI)开源的Reranker,也非常有名,在23年的时候,是为数不多可选的几个Reranker模型。这个模型的权重可以在HuggingFace上下载。常用的有如下三种:
BAAI/bge-reranker-base
BAAI/bge-reranker-large
BAAI/bge-reranker-v2-m3
使用时,首先安装依赖:
然后使用如下代码:
这个是阿里巴巴开源的reranker,HuggingFace中的模型ID为Alibaba-NLP/gte-multilingual-reranker-base
,官方示例:
Jina也是一家很有实力的AI公司,之前在介绍使用Ollama和Langchain动手开发AI搜索问答助手中提到过他们出的Reader API,是需要非常简单的操作,就可以将网页解析成Markdown,大幅提高了后续问答的效果。
此处介绍的Reranker模型,是他们开源的多语言重排模型,HuggingFace中的模型ID为jinaai/jina-reranker-v2-base-multilingual
。
官方样例:
Reranker准备,此处以BGE Reranker为例,其他几种方式请查看代码仓库:
使用:
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21