微信扫码
与创始人交个朋友
我要投稿
RAG的评估是比较难的,目前一般有以下几种评估方式:
人工评估:使用多人评估进行投票通常是最准的,但这种方式在实际工作中成本过高,效率非常低,基本上不具备可操作性
使用LLM出现前的BLEU、ROUGE等指标评估:这种方式需要参考答案,较少考虑语义,目前在RAG的评估中比较少用
使用RAGAS评估:这种方式是在论文RAGAS:Automated Evaluation of Retrieval Augmented Generation中提出的自动化测评方法,这种方式不需要参考答案,基本上是目前RAG评估的主流方法
使用GPT-4进行打分:这种方法虽然有争议,但实际应用中,只要Prompt优化几轮,与人工评估的一致性还是比较高的,这种方式需要参考答案
使用语义相似度+关键词进行加权打分:这种方式一般应用在竞赛中,实际企业级文档问答开发中较少使用,因为需要有正确答案,而且答案需要有关键词列表
通常的认知是,自动化评估精度并不高,在吴恩达的DeepLearning.AI网站中的Building and Evaluating Advanced RAG课程提到,目前自动化测评,总体与人工测评的一致性,只有80%多,这个指标供大家参考,但实际情况下一般不会这么低,一方面是这个课程是23年大语言模型总体上还没现在这么强的时候出的,另一方面是,课程中介绍的方法(也是本文要介绍的方法)没有参考答案,而实际工作中一般是会准备参考答案的,在有参考答案的情况下,自动化评估与人工评估的一致性,还是容易达到比较高的水平的
本文所要介绍的方法,借助TruLens库,评估三个指标,TruLens称之为RAG三元组(RAG triad),由三个评估指标组成:上下文相关性(Context Relevance)、依据性(Groundedness)和答案相关性(Answer Relevance)。如下图所示。这三个评估指标,可以看做是RAGAS的子集,我们后面会有文章介绍如何使用RAGAS进行评估。
(https://www.trulens.org/trulens_eval/getting_started/core_concepts/rag_triad/)上下文相关性(Context Relevance):任何RAG应用程序的第一步是信息检索;为了验证检索的质量,需要确保每个上下文片段与输入查询密切相关。这一点至关重要,因为LLM将使用这些上下文来形成答案,因此任何不相关的信息都可能导致幻觉。TruLens通过使用序列化记录的结构来评估上下文的相关性
依据性(Groundedness):检索到上下文之后,LLM将其形成答案。LLM经常会偏离提供的事实,夸大或扩展成听起来正确的回答。为了验证RAG的依据性,可以将回答分解成单独的陈述,并在检索到的上下文中独立寻找支持每个陈述的证据
答案相关性(Answer Relevance):回答仍然需要帮助解决原始问题,可以通过评估最终回答与用户输入的相关性来验证这一点
TruLens默认使用OpenAI的模型作为打分模型,本文提供了更多的选项,可以使用OpenAI兼容的LLM,例如千问,也可以使用Ollama提供的模型
本文代码已开源,地址在:https://github.com/Steven-Luo/MasteringRAG/blob/main/evaluation/01_trulens_evaluation.ipynb
首先访问Ollama官方网站,下载对应操作系统的版本,并安装,接下来下载模型,这个模型将用来作为RAG中基于知识片段回答用户问题的LLM
本文所有示例在安装Anaconda环境后,再安装下面的Python库即可。整个代码已经在Google Colab进行了测试:
本文所使用的版本为:
库 | 版本 |
---|---|
langchain | 0.2.7 |
langchain_community | 0.2.7 |
langchain_openai | 0.1.7 |
pypdf | 4.2.0 |
sentence_transformers | 2.7.0 |
chromadb | 0.5.3 |
trulens_eval | 0.33.0 |
文中所用到的问答对、原始数据,可以从代码仓库中取用。
加载问答对
向量化
TruLens默认使用的是OpenAI的LLM,下面提供了使用自定义OpenAI兼容的API,以及Ollama的方式
或者也可以使用Ollama提供的模型
可以使用如下方式使用此LLM
注意,如果在同一个目录下,有多个版本在迭代,并且希望使用TruLens把这些迭代的评估结果都记录下来,那么不要调用
tru.reset_database()
,否则之前的评估记录会被清除。评估记录默认是保存在一个名为default.sqlite
的SQLite数据库中
total_cost为0是因为所使用的模型不是OpenAI的模型,关联不上价格
Starting dashboard ...Config file already exists. Skipping writing process.Credentials file already exists. Skipping writing process.Dashboard already running at path: Network URL: http://192.168.31.92:48913 <Popen: returncode: None args: ['streamlit', 'run', '--server.headless=True'...>
使用浏览器访问上方代码运行后出现的地址
在Leaderboard中,可以直观的看到RAG triad的三个评估指标,从这个指标中可以明显的看出,当前整个流程的薄弱环节点击到Evaluations,可以看到每条测试数据的三个评估指标,点击测试数据,可以查看整个Trace详情
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-15
复旦发布:最佳RAG方案
2024-11-15
破解PDF解析难题:RAG中高效解析复杂PDF的最佳选择
2024-11-15
RAG技术全解析:从基础到前沿,掌握智能问答新动向
2024-11-15
RAG在未来会消失吗?附RAG的5种切分策略
2024-11-15
HtmlRAG:利用 HTML 结构化信息增强 RAG 系统的知识检索能力和准确性
2024-11-15
打造自己的RAG解析大模型:表格数据标注的三条黄金规则
2024-11-13
RAGCache:让RAG系统更高效的多级动态缓存新方案
2024-11-13
Glean:企业AI搜索,估值46亿美元,ARR一年翻4倍
2024-07-18
2024-07-09
2024-05-05
2024-07-09
2024-05-19
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21