微信扫码
添加专属顾问
我要投稿
深入浅出地探讨如何对AI应用中的LLM输出进行评测,是开发者和技术人员的实用指南。
核心内容:
1. LLM的工作原理与评测难点分析
2. 多种Python评测LLM输出的方法介绍
3. DeepEval工具在LLM评测中的应用实践
大多数开发者构建LLM应用时并未设置自动评测流程——即便这可能引入未被察觉的破坏性变更,因为评测本身极具挑战性。本文中,你将学习如何正确评测LLM输出。
• LLM是什么?为何评测如此困难?
• 用Python评测LLM输出的不同方法
• 如何使用DeepEval评测LLM
要理解LLM为何难以评测且常被称为“黑箱”,需先拆解其本质与运作原理。
以GPT-4为例,这个大型语言模型(LLM)基于海量数据训练而成——确切地说,约3000亿单词的数据来自文章、推文、Reddit的r/tifu板块、Stack Overflow、操作指南等互联网抓取内容。
“GPT”中的“Generative Pre-trained Transformers”指的是一种擅长预测下一个标记(token)的特定神经网络架构(对GPT-4而言,1个token≈4个字符,具体长度取决于编码策略)。
实际上,LLM并非真正“知晓”事物,而是通过训练理解语言模式,从而擅长生成合理回应。
关键结论:LLM通过概率预测生成“最佳”的下一个标记。这种非确定性本质导致其输出具有多样性,使得评测变得复杂——因为往往存在多个合理答案。
LLM应用的常见场景包括:
• 聊天机器人:客服、虚拟助手、对话代理
• 代码助手:代码补全、纠错、调试
• 法律文档分析:快速解析合同与法律文本
• 个性化邮件起草:基于上下文、收件人和语气生成邮件
LLM应用通常有一个共同点——结合专有数据能显著提升任务处理能力。例如,你可能会想构建一个提升员工生产力的内部聊天机器人,OpenAI显然不会(也不应)追踪你公司的内部数据。
关键在于:确保LLM应用生成理想输出,如今不仅是OpenAI的责任(如保障GPT-4的基础性能),更是开发者的责任。你需要通过提示模板优化,数据检索流程,模型架构选择等实现。
评测的作用在于量化应用的任务处理能力。若无评测机制,迭代过程中可能引入破坏性变更,而手动检查所有输出无异于灾难。
评测LLM输出的一种有效方法,是使用NLP领域的其他机器学习模型。尽管LLM输出具有非确定性,你仍可通过特定模型在多项指标(如事实正确性、相关性、偏见性、帮助性等,此处仅列举部分)上评估输出质量。
例如,自然语言推理模型(NLI,输出蕴含分数)可用于评估回答基于上下文的事实正确性。蕴含分数越高,输出的事实正确性越强——这对评测事实性不明确的长文本尤为实用。
你可能疑惑:这些模型如何“知道”文本是否事实正确?实际上,你可为其提供上下文(称为“基本事实”或“参考答案”)供其参考。这些上下文的集合被称为评测数据集。
但并非所有指标都需要参考。例如,相关性可通过交叉编码器模型(另一种ML模型)计算,仅需输入和输出即可判断二者的相关性。
以下是无参考指标列表:
• 相关性(Relevancy)
• 总结质量(Summarization)
• 偏见(Bias)
• 毒性(Toxicity)
• 帮助性(Helpfulness)
• 无害性(Harmlessness)
• 连贯性(Coherence)
以下是有参考指标列表:
• 幻觉检测(Hallucination)
• 语义相似度(Semantic Similarity)
注意:基于参考的指标无需提供初始输入,因其仅基于提供的上下文评测输出。
当前新兴趋势是利用尖端LLM(如GPT-4)对自身或其他模型进行评测。
G-Eval:基于LLM的评测框架
我将附上G-Eval研究论文中的图示,但简而言之,其流程分为两部分——首先生成评测步骤,随后基于这些步骤输出最终评分。
具体操作示例
步骤一:生成评测步骤
1. 向GPT-4说明任务(例如“根据相关性对摘要进行1-5分评分”)。
2. 明确评分依据(例如“相关性需基于所有句子的综合质量”)。
步骤二:生成评分
1. 将输入、评测步骤、上下文和实际输出合并。
2. 要求模型生成1-5分(5分为最佳)。
3. (可选)提取LLM输出标记的概率值,通过加权求和归一化得分。
步骤3的实际复杂性:要获取输出标记的概率,通常需访问原始模型输出(而非仅最终生成文本)。论文引入此步骤,因其能提供更细粒度的评分,从而更精准反映输出质量。
以下是论文中的图示,助你直观理解上述内容:
结合GPT-4的G-Eval在连贯性、一致性、流畅性及相关性等指标上优于传统评测方法。但需注意,基于LLM的评测往往成本高昂。因此,建议以G-Eval为起点建立性能基准,再在适用场景下过渡至成本效益更优的评测指标。
至此,你可能已被术语淹没,且绝不想从零实现所有内容。试想需研究每个指标的最佳计算方式、训练专用模型并搭建评测框架……
所幸,已有开源工具如ragas
和DeepEval
提供现成评测框架,省去自研成本。
作为Confident(DeepEval背后的公司)联合创始人,我将厚颜展示如何用DeepEval
在CI/CD流水线中对LLM应用进行单元测试(我们提供类似Pytest的开发者体验、简易配置及免费可视化平台)。
让我们通过代码实操收尾。
要运行我们期待的评测流程,请按以下步骤操作:
创建项目文件夹并初始化Python虚拟环境(在终端中运行):
mkdir evals-example
cd evals-example
python3 -m venv venv
source venv/bin/activate
此时你的终端应显示如下提示:
(venv)
运行下面代码:
pip install deepeval
最后,将OpenAI API密钥设为环境变量。后续G-Evals需调用OpenAI接口(本质上是使用LLM进行评测)。在终端中粘贴以下命令(替换为你自己的API密钥):
export OPENAI_API_KEY="your-api-key-here"
创建名为test_evals.py
的文件(注意测试文件需以“test”开头):
touch test_evals.py
粘贴以下代码:
from deepeval.metrics import GEval, HallucinationMetric
from deepeval.test_case import LLMTestCase, LLMTestCaseParams
from deepeval import assert_test
def test_hallucination():
hallucination_metric = HallucinationMetric(minimum_score=0.5)
test_case = LLMTestCase(
input="What if these shoes don't fit?",
actual_output="We offer a 30-day full refund at no extra costs.",
context=["All customers are eligible for a 30 day full refund at no extra costs."]
)
assert_test(test_case, [hallucination_metric])
def test_relevancy():
answer_relevancy_metric = AnswerRelevancyMetric(minimum_score=0.5)
test_case = LLMTestCase(
input="What does your company do?",
actual_output="Our company specializes in cloud computing"
)
assert_test(test_case, [relevancy_metric])
def test_humor():
funny_metric = GEval(
name="Humor",
criteria="How funny it is",
evaluation_params=[LLMTestCaseParams.ACTUAL_OUTPUT]
)
test_case = LLMTestCase(
input="Write me something funny related to programming",
actual_output="Why did the programmer quit his job? Because he didn't get arrays!"
)
assert_test(test_case, [funny_metric])
运行测试:
deepeval test run test_evals.py
每个测试用例均对应DeepEval预定义的指标,这些指标输出0-1分的评分。例如,HallucinationMetric(minimum_score=0.5)
表示评测输出的事实正确性,其中minimum_score=0.5
设定测试通过的阈值为得分>0.5。
逐项解析测试用例:
• “test_hallucination
”:评测LLM输出相对于上下文的事实正确性。
• “test_relevancy
”:评测输出与输入的相关性。
• “test_humor
”:评测LLM输出的有趣程度(使用G-Eval框架,依赖LLM自身进行评测)。
参数说明:单个测试用例最多可包含4个动态参数——
• 输入(Input)
• 预期输出(Expected Output)
• 实际输出(Actual Output,来自你的应用)
• 上下文(Context,用于生成实际输出的背景信息)
不同指标对参数的需求各异,部分为必选,部分为可选。
最后,下面是如何在一个测试用例中聚合多个指标的代码:
def test_everything():
test_case = LLMTestCase(
input="What did the cat do?",
actual_output="The cat climbed up the tree",
context=["The cat ran up the tree."],
expected_output="The cat ran up the tree."
)
assert_test(test_case, [hallucination_metric, relevancy_metric, humor_metric])
也没那么难吧?编写足够数量的测试用例(10-20个),你就能显著提升对应用的控制力 。
附加功能:DeepEval支持在CI/CD流水线中对LLM应用进行单元测试。
此外,你可通过以下命令使用DeepEval免费平台:
deepeval login
按指引操作(登录、获取API密钥、粘贴至CLI),然后重新运行测试:
deepeval test run test_example.py
本文你已学习:
• LLM工作原理
• LLM应用实例
• 评测LLM输出的难点
• 使用DeepEval进行单元测试
通过评测,你可以:
✅ 避免对LLM应用引入破坏性变更
✅ 快速迭代优化关键指标
✅ 对构建的LLM应用充满信心
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-21
一台3090就能跑Gemma 3 27B!谷歌发布Gemma 3全系QAT版模型
2025-04-20
MCP vs Function Calling,该如何选?
2025-04-20
国内企业应用AI大模型赋能软件测试的落地实践案例
2025-04-20
8卡H20运行DeepSeek-V3-0324性能和推理实测
2025-04-19
低延迟小智AI服务端搭建-ASR篇(续):CPU可跑
2025-04-19
LoRA 与QLoRA区别
2025-04-18
DeepSeek-V3-0324 本地部署,vLLM和SGLang的方法
2025-04-18
Ollama对决vLLM:DEEPSEEK部署神器选谁?90%人选错!这份实测攻略让你秒懂!
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-20
2025-04-01
2025-03-31
2025-03-20
2025-03-16
2025-03-16
2025-03-13
2025-03-13