AI知识库 AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


普林斯顿大学重磅 | 关键的AI Agent,你遇到过这4大Agent评估陷阱吗
发布日期:2024-07-04 17:34:25 浏览次数: 1557


本文:4700字阅读12分钟 

如今,AI代理(Agent)作为一种复合型AI系统,正成为研究的前沿热点。然而,普林斯顿大学的研究人员在最新发表的论文中指出,当前的代理基准测试和评估方法存在严重缺陷,这些缺陷可能会阻碍真正有用的AI代理的开发。本文将深入探讨这项研究的核心发现,并详细介绍研究者提出的创新方法,为AI代理的评估和开发提供新的思路。


01

AI代理评估的现状

研究者指出,目前已有十多个代理基准测试被开发出来,涵盖了网络交互、编程和工具使用等多个领域。同时,许多原本用于评估语言模型的基准测试也被用来评估代理。然而,代理评估与语言模型评估有着根本的区别:


1. 代理通常用于更困难、更现实、更有实际效用的任务,这些任务往往没有单一的正确答案。


2. 代理可以执行更复杂的操作,如使用命令行完成任务。


3. 代理的运行成本可能远高于单次模型调用。例如,SWE-Agent的每次运行成本上限为4美元,相当于数十万个语言模型token。


这些差异导致代理评估面临独特的挑战,需要新的评估框架和方法。


图片由xiumaodalle生成

02

当前代理评估的四大缺陷

 1. 盲目追求准确率,忽视成本


研究者发现,当前的代理评估过分关注准确率,而忽视了推理成本这一关键指标。他们通过实验证明,简单地增加模型调用次数就能显著提高准确率。例如:


- 在AlphaCode上,通过100万次重试可以将准确率从接近0%提高到30%以上。


- 在HumanEval基准测试中,研究者提出的简单"升温"策略(gradually increasing temperature)在成本降低50%的情况下,达到了与最先进复杂代理架构相当的准确率。


这张HumanEval结果的帕累托前沿图展示了不同AI代理和模型在HumanEval编程任务上的性能对比,主要从准确率和成本两个维度进行评估。图中的帕累托前沿线显示了在给定成本下能达到的最佳准确率。(需要解释一下:帕累托前沿线(Pareto Frontier)是经济学和决策科学中的一个重要概念,特别在多目标优化问题中,在帕累托最优点上,任何一个目标的改进都无法在不损害其他目标的情况下实现。如果一个解的某个目标的改进会导致其他目标的退化,那么这个解被称为帕累托最优。)值得注意的是,简单的基线方法(如Warming和Retry)在准确率上与复杂代理相当,但成本显著降低。

这一发现暴露出两个严重问题:


1. 最先进的代理系统可能变得不必要的复杂和昂贵。


2. 业界对准确率提升的来源可能得出了错误结论,过分强调了"系统2"思维等复杂方法的作用。


 2. 模型开发者和下游开发者需求混淆


研究者指出,当前的基准测试没有区分模型开发者和下游应用开发者的不同需求。他们以NovelQA基准为例说明了这一问题:


NovelQA要求模型一次性回答关于一部小说的所有问题。这种设计有利于评估长上下文模型,但并不反映现实应用场景。在实际使用中,用户更可能逐个提问,这会大大增加检索增强生成(RAG)方法的成本。关于RAG的最佳实践:

往期推荐

Prompt工程师必备:复旦重磅 | 最佳RAG实践长什么样的?


研究者的实验显示:


- 在NovelQA上,RAG方法的成本仅为长上下文方法的一半。


- 但在现实场景中,RAG方法的成本可能是长上下文方法的20倍以上。


这种差异可能误导下游开发者对不同方法的选择。


 3. 缺乏适当的留出集


研究者分析了17个近期的代理基准,发现许多基准缺乏适当的留出集,(再解释一下:什么是留出集,(hold-out set)是指在机器学习和数据分析中,为了评估模型性能而预留的一部分数据集。留出集用于测试模型的泛化能力,即模型在未见过的数据上的表现,主要用于模型评估和防止模型过拟合)有些甚至完全没有。这可能导致代理过拟合基准测试,而在现实世界中表现不佳。


研究者将代理的泛化能力分为四个级别:


1. 分布特定


2. 任务特定


3. 领域通用


4. 完全通用


他们建议,留出集的设计应与代理的预期泛化级别相匹配。然而,在17个基准中:


- 只有5个具有与其泛化级别相匹配的留出集


- 7个完全没有留出集,也没有计划添加


以WebArena为例,它旨在评估代理在各种网络任务上的表现,应属于领域通用级别。但它缺乏对新网站和任务的留出测试,这可能导致代理只是记住了特定任务的解决方案,而无法泛化到新的网络环境。


 4. 评估实践缺乏标准化


研究者在复现WebArena和HumanEval的评估结果时,发现了普遍存在的可重复性问题。这些问题包括:


1. 评估脚本对代理设计做出不适当假设


2. 将语言模型评估基准不加修改地用于代理评估


3. 高昂的评估成本导致难以估计置信区间


4. 对外部因素(如网络环境)的依赖导致微妙错误


5. 缺乏标准化导致评估和开发中出现细微bug


例如,在复现LATS代理的结果时,研究者发现:


- LATS的评估脚本只在部分HumanEval任务上使用真实测试用例,导致一些错误解决方案被标记为正确。


- 这个问题导致LATS的实际准确率比报告的低约3个百分点。


这些问题不仅影响了结果的可靠性,还可能导致对代理能力的过度乐观估计。

03

重新定义AI代理评估

面对这些挑战,研究者提出了一系列创新方法,旨在提高AI代理评估的科学性和实用性。


 1. 控制成本的评估方法


研究者提出了一种新的评估方法,将结果可视化为准确率和推理成本的帕累托曲线。这种方法允许同时考虑准确率和成本,为代理设计提供了新的优化空间。


这张图提供了更全面的视角,展示了准确率(y轴,范围从0到1)与API成本(x轴,以2024年4月的美元计,范围从0到140美元)的关系。这个完整的坐标轴让我们能够更清晰地看到各种方法之间HumanEval编程任务上的差异:


- 大多数方法集中在图的左上角,表明它们在较低成本下就能达到较高的准确率。


- LATS (GPT-4)虽然准确率最高,但成本远高于其他方法,位于图的最右侧。


- 简单的策略(如Warming和Retry)能够以相对较低的成本达到与复杂代理相当的准确率。


- 成本并不总是与性能成正比。例如,LATS (GPT-4)的成本是其他方法的数倍,但准确率提升并不显著。


这些发现表明,通过智能的策略设计,可以在不大幅增加成本的情况下显著提高代理性能。


2. 联合优化准确率和成本


研究者提出了一种联合优化方法,通过权衡固定成本(如超参数优化)和可变成本(每次运行的成本)来设计更高效的代理。


他们基于DSPy框架实现了这一方法,并在HotPotQA基准上进行了测试。结果显示:


- 对于GPT-3.5,联合优化将可变成本降低了53%,同时保持了相似的准确率。

- 对于Llama-3-70B,可变成本降低了41%,准确率保持不变。


这种方法为代理设计提供了新的思路:通过前期投入更多资源进行彻底的优化,可以显著降低后续的运行成本,这也是近期DSPy在很多大厂风靡一时的原因。我的公众号里有很多关于DSPy的文章,您可以看看

往期推荐

NAACL2024最新:DSPy开发的教学机器人,不用手写Prompt,可自适应移情反馈

DSPy程序优化Prompt的五个重要教训,NLP 的未来不是修改Prompt,而是构建更高抽象级别的模块

ACL2024重磅 | CoT升级为SymbCoT:符号思维链开启可靠逻辑推理,用DSPy实现

意图识别,用DSPy理解用户的“弦外音”

ICLR2024重磅 | DSPy或将手写Prompt推进历史,悄悄学会DSPy,一线技术圈很缺你这类人才

 3. 区分模型评估和下游评估


研究者强调,模型开发者和下游应用开发者有着不同的评估需求,应该使用不同的基准测试。


- 对于模型评估,应避免使用美元成本这样会随时间变化的指标,而应使用诸如参数数量或训练计算量这样的代理指标。


- 对于下游评估,实际成本才是关键。研究者建议包括输入/输出token数,以便使用者能够根据当前价格重新计算成本。


研究者还开发了一个简单的Web应用,允许用户调整不同语言模型的当前价格,并可视化HumanEval上各代理的成本-准确率权衡。


 4. 设计合适的留出集


为防止代理过拟合基准测试,研究者建议根据代理的预期泛化级别设计相应的留出集:


1. 分布特定基准:留出同分布的样本


2. 任务特定基准:留出分布外的样本


3. 领域通用基准:留出全新的任务


4. 完全通用基准:留出全新的领域


例如,对于旨在评估通用网络交互能力的WebArena基准,留出集应该包含训练中没有出现过的网站类型和任务类型。


5. 标准化评估实践


研究者呼吁建立一个专门的代理评估框架,类似于HELM和LM Evaluation Harness这样的语言模型评估框架。这个框架应该:


1. 提供灵活的评估脚本,适应不同的代理设计


2. 将代理评估与语言模型评估明确区分


3. 允许多次运行以估计置信区间


4. 考虑外部因素对评估的影响


5. 建立社区规范,减少细微错误



04

重新审视AI代理性能

这个表格提供了不同AI代理在HumanEval任务上的性能和成本对比。从中我们可以得出以下关键见解:


1. 复杂不等于更好:简单但经过优化的策略(如Warming)可以达到与复杂代理相当或更好的性能,同时大幅降低成本。例如,Warming (GPT-4)达到了93.2%的准确率,成本仅为2.45美元,而LATS (GPT-4)虽然准确率为88.0%,但成本高达134.50美元。


2. 成本意识的重要性:在评估AI代理时,不能只看准确率,还需要考虑成本因素。例如,Escalation策略以仅0.27美元的成本达到了85.0%的准确率,这在资源受限的场景下可能是一个极具吸引力的选择。尽管Token成本在国内一降再降,目前可以忽略,可大模型厂商又不是慈善机构,也有成本的啊,最终价格一定会回到一个合理区间。到那个时候,你的Agent又当如何应对?

3. 模型选择的影响:使用GPT-4的代理普遍比使用GPT-3.5的代理表现更好,但成本也更高。这突显了在选择基础模型时需要权衡性能和成本。


4. 策略优化的潜力:通过智能的策略设计(如Warming、Retry、Escalation),可以在有限预算内显著提升性能。这为AI系统优化开辟了新的研究方向。

普林斯顿大学研究者的工作为AI代理评估和开发领域带来了重要启示:


1. 我们需要超越简单的准确率追求,采用更全面、更贴近实际的评估方法。


2. 成本控制和效率优化应该成为代理开发的核心考虑因素,即便是部署了Agent后续成本问题可能会成为焦点问题,这项研究还没有考虑Prompt的鲁棒性。

3. 评估方法应该能够准确反映代理在现实环境中的表现。

4. 标准化和可重复性对于推动整个领域的进步至关重要,这或许会成为一些头部企业的前进方向。

吸引我给大家介绍这篇文章的是DSPy技术的应用,DSPy在Agent开发方面真的非常具有优势,欢迎您来群里一起探讨。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

年轻人!来一起搞AI吗?

如果你看见AI对商业世界的变革,欢迎来和我们一起探索~

岗位:销售经理

查看详情

岗位:项目经理

查看详情

岗位:产品经理

查看详情

岗位:测试工程师

查看详情

联系我们

售前咨询
186 6662 7370
产品演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询