AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


使用RAG技术构建企业级文档问答系统:检索优化(1)Embedding微调
发布日期:2024-08-13 07:37:47 浏览次数: 1743


概述

根据使用RAG技术构建企业级文档问答系统之基础流程中的RAG流程描述,有一个很重要步骤是从知识库中检索相关的文档片段,由于RAG是一个典型的串行流程,即先检索,再生成,因此,提升检索性能,通常可以提升RAG的效果。

针对RAG检索部分的优化,已经有不少优化手段,典型的有如下这些:

  • Embedding模型优化

  • 混合检索(BM25+Embedding)

  • Multi Query

  • RAG Fusion

  • Hypothetical Document Embeddings(HyDE)

  • Rerank

  • ...

从本文开始,会陆续覆盖这些优化方法,每次优化,会分别计算检索的命中率,和问答的准确率,以便大家直观地感受不同优化手段带来的性能提升。

检索的命中率,会根据使用RAG技术构建企业级文档问答系统之基础流程中介绍的HitRate,问答的准确率,使用《使用RAG技术构建企业级文档问答系统之使用GPT4进行评估中介绍的方法评估,考虑到大家访问OpenAI的API可能不便,打分统一替换为Qwen2-72B-Instruct。

本文首先介绍Embedding模型优化。通常我们所使用的Embedding模型,由于要考虑到通用型,不会特别针对某个领域做专门的优化。针对Embedding模型的优化,主要有两个部分可以做:

  • 对Embedding做二次预训练

  • 对Embedding模型做微调

对Embedding做二次预训练通常不会有显著的效果提升,本文主要介绍对Embedding模型的微调。所选取的模型是BAAI/bge-large-zh-v1.5(HuggingFace中的模型ID),是BAAI(智源)开源的一个Embedding,这个基本上也是目前RAG中用得比较多的模型了,虽然BGE发布后陆续有新的模型不断刷新了榜单,但综合对比下来,BGE还是很能打的。

本文会介绍Embedding微调时,涉及的如下几点:

  • 微调样本构建

  • 微调脚本

  • 训练过程监控:W&B监控

  • 模型效果评估

本文优化后的模型评估效果见下表,可以看出,检索的HitRate,Embedding微调后的模型,都是显著优于Baseline(基础流程中介绍的方法)的,问答全流程,使用3个知识片段的Embedding微调后的模型进行检索,也取得了目前为止的最好效果

本文代码已开源,地址在:https://github.com/Steven-Luo/MasteringRAG

其中,样本构建代码为:

  • build_embedding_sample_v1.ipynb

  • build_embedding_sample_v2.ipynb:最终使用版本

微调脚本为:

  • finetune_bge_embedding_v1.sh

  • finetune_bge_embedding_v2.sh

  • finetune_bge_embedding_v3.sh

  • finetune_bge_embedding_v4.sh:最终使用版本

RAG全流程代码为:retrieval/01_bge_embedding_ft.ipynb

环境准备

Embedding模型的训练,虽然对机器的性能要求没有对训练LLM那么高,但也还是有一定要求的,GPU是需要的

硬件环境

本文所用硬件环境如下:

  • CPU:i7-9700K

  • 内存:64GB

  • GPU:GTX 1080Ti(11G显存)

软件环境

软件环境列举主要的Python依赖:

  • Python:3.10.9

  • pytorch包:2.2.1

  • FlagEmbedding包:1.2.10

模型训练

微调样本构建

微调样本的构建过程,其实就是找出跟一个query相似的句子——正样本,以及不相似的句子——负样本,Embedding在微调时,会使用对比学习loss来让模型提高辨别正负样本的能力。

此处只展示核心代码,完整代码可以访问代码仓库

 (df, neg_batch_size=-, n_neg_batch=):





   tqdm
 

    data = []
 idx, row  tqdm(df.iterrows(), total=(df)):
        question = row[]
        answer = row[]

        neg_samples = df[df[] != question][].values.tolist()
        neg_batch_count = math.ceil(((df) - ) / neg_batch_size)
        neg_batch_count = (n_neg_batch, neg_batch_count)
 neg_batch_idx  (neg_batch_count):
            batch_neg_samples = neg_samples[neg_batch_idx * neg_batch_size: (neg_batch_idx + ) * neg_batch_size]
            batch_neg_samples = [item  item  batch_neg_samples  item != answer]
            data.append({
: question,
: [answer],
: batch_neg_samples
            })
 data

 (samples, save_filename):
 

 (save_filename, )  f:
 sample  samples:
            f.write(json.dumps(sample, ensure_ascii=))
            f.write()

其中df样例如下:

build_qa_samples函数的返回结果样例如下:

{: ,
: [],
: [,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
]}

微调脚本

此处原始参考文档来自BGE官方仓库:https://github.com/FlagOpen/FlagEmbedding/tree/master/examples/finetune

构造好微调样本后,就可以开始微调模型了。代码仓库中包含了4个版本的微调脚本,总体大同小异,此处以finetune_bge_embedding_v4.sh为例


=  dirname ; 
 =/work/cache/env/miniconda3/bin:


 =outputs/v1_20240713/emb_samples_qd_v2.jsonl

 =
 =

 =
 =
 =
 =expr     

 =ft_v4_bge_large_epoch__bz__trgrp__date +


 =RAG-From-Scratch-Embedding-Finetune
 =替换为自己的W&B key
 =

 =experiments/embedding/finetune/

 [ ! -d  ]; 
    mkdir -p 



torchrun --nproc_per_node  
-m FlagEmbedding.baai_general_embedding.finetune.run 
--output_dir  
--model_name_or_path /DataScience/HuggingFace/Models/BAAI/bge-large-zh-v1.5 
--train_data  
--learning_rate 1e-5 
--fp16 
--num_train_epochs  
--per_device_train_batch_size  
--gradient_accumulation_steps  
--dataloader_drop_last True 
--normlized True 
--temperature .02 
--query_max_len  
--passage_max_len  
--train_group_size  
--negatives_cross_device 
--logging_steps  
--save_steps  
--save_total_limit  
--warmup_ratio .05 
--lr_scheduler_type cosine 
--query_instruction_for_retrieval 


cp

启动微调:

bash finetune_bge_embedding_v4.sh

微调后的模型已经上传HuggingFace,大家可以搜索这个模型ID使用:stevenluo/bge-large-zh-v1.5-ft-v4

模型监控

4个版本的完整训练过程监控,可以访问下方的链接查看:

https://wandb.ai/steven-luog/RAG-From-Scratch-Embedding-Finetune/reports/MasteringRAG-Embedding-Finetune--Vmlldzo5MDA3Mjg1?accessToken=vnwdand2uzh1v5wfgv16vtb5rgk1chng81hj8tc7c4gy8lxmo15xwa0xblh9mrrc

以下是截图:


小结

上文介绍过,微调样本需要准备query或者question,正样本列表,负样本列表,query自然是用户问题(下面“-”前面的Q),根据正负样本的来源(下面“-”后面的部分),通常可以分为如下几种:

  • Q-Q(question-question):这种方式适合已经积累了比较多FAQ的企业,希望对用户问题检索FAQ库中的Q,这种情况下,使用Q-Q方式构建的样本,优化的模型检索效果会比较好

  • Q-A(question-answer):这种方式比较有误导性,看起来感觉最应该用这种方式构建,但实际上线后,要检索的,是一堆documents,而不是answer,如果你真的用这个方式构建过样本,看一些case就会发现,answer跟实际的文档相差非常远,导致模型微调后,性能反而出现下降

  • Q-D(question-document):这种方式,在几个项目中实践下来,基本上是最适合的构建方式,因为实际检索时,就是拿问题去检索文档,确保训练、推理时任务的一致性,也是减少模型性能损失最主要的一个方法

模型使用

模型的使用方式,与使用RAG技术构建企业级文档问答系统之基础流程中介绍的完全一致,只是替换模型路径model_path即可

   HuggingFaceBgeEmbeddings
 

device =   torch.cuda.is_available()  

model_path = 
embeddings = HuggingFaceBgeEmbeddings(
    model_name=model_path,
    model_kwargs={: device},
    encode_kwargs={: },
    query_instruction=
)

其余流程与基础流程一致,性能对比的部分大家可以参考代码仓库。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询