支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


填补空白!首个提升大模型工作流编排能力的大规模数据集开源

发布日期:2025-03-11 20:19:59 浏览次数: 1687 作者:OpenBMB开源社区
推荐语

探索Agent工作流编排能力的新突破,WorkflowLLM框架和WorkflowBench数据集的开源为大模型带来革命性进展。

核心内容:
1. 大模型在工作流编排领域的挑战与局限性
2. WorkflowLLM框架的创新设计及其三个关键阶段
3. WorkflowBench数据集的构建与微调模型WorkflowLlama的性能表现

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

Manus 爆火出圈,引发 Agent 热潮!从自行理解任务、拆解步骤到选择工具并执行,这需要 Agent 具备强大的复杂工作流编排和任务处理能力,而工作流也是智能体的核心技术之一。

尽管大语言模型在多个领域已展现出巨大的潜力,但在工作流编排领域,尤其是在复杂工作流的编排上,仍面临显著挑战。现有大多数模型仅局限于处理节点较少、结构简单的线性工作流,难以满足实际应用中对复杂工作流编排的需求。

为此,清华大学 THUNLP 团队联合人民大学、曼彻斯特大学及武汉大学团队提出了一个全新的、以数据为中心的框架 —— WorkflowLLM,并设计了首个专为提升工作流编排能力而设计的大规模数据集 WorkflowBench,旨在提升LLM在工作流自动化中的复杂工作流编排能力。基于 WorkflowBench 数据集,我们对 Llama-3.1-8B 模型进行了微调,获得了 WorkflowLlama,在各项测评集中, 始终表现优于 GPT-4o 等强基线模型。


         

图片

 WorkflowLLM 框架概述 

 图 1 WorkflowLLM框架概览 

如上图所示,WorkflowLLM 主要包含三个阶段:

1. 数据收集:首先爬取高质量的工作流数据,并进行筛选和转换,将快捷指令源代码转录为 Python 风格的代码,便于 LLM 处理。利用 ChatGPT 生成注释、任务计划和任务查询,丰富数据集并增强 LLM 的学习效果。(详细内容见下文“WorkflowBench 数据构建“)。
2. 查询扩展:使用 ChatGPT 生成更多任务查询,以增加工作流的多样性和复杂性。采样具有代表性逻辑结构的 API 和工作流示例,引导 ChatGPT 生成类似的工作流。

3. 工作流生成:最后,基于收集到的真实世界数据,训练一个工作流标注模型。利用训练好的标注模型为扩展后的任务查询生成工作流。对标注模型生成的工作流进行质量确认,确保数据集的完整性。将经过质量确认的合成样本与收集的样本合并,形成最终的 WorkflowBench 数据集。

         

 

   图片

 WorkflowBench 数据构建 

图 2 WorkflowBench数据说明,包括任务查询、API文档、任务计划和带注释的工作流代码
WorkflowBench 数据集的构建过程分为三个阶段。首先,我们从真实世界的工作流数据(例如 Apple Shortcuts 和 RoutineHub)中收集样本,并将其转录为 Python 代码。随后,利用 GPT-4o-mini 模型为其生成层次化思维评论。其次,通过 GPT-4o-mini 生成任务查询,以此丰富工作流的多样性和复杂性。最后,借助标注模型生成扩展查询的工作流,并通过严格的质量确认环节,确保数据集的高质量。

WorkflowBench 数据集包含 106,763 个样本,涵盖 83 个应用程序中的 1,503 个 API。与现有工作相比,WorkflowBench 不仅包含更多节点的工作流实例,还具备更为复杂的逻辑结构,尤其注重支持多步骤、分支、循环等高级功能的工作流生成。作为首个专注于提升工作流编排能力的数据集,WorkflowBench 为大语言模型(LLM)提供了丰富且复杂多样的训练数据,使其能够更好地应对现实世界中对自动化工作的需求。

如图所示,该数据集覆盖了包括 iOS 内置应用、ChatGPT 在内的 83 个应用,涉及 Utility、Games、Music 等 28 个领域。相关数据说明及统计结果如下:

    图 3 工作流类别、包含的应用和操作数量的分布比较。上半部分展示了收集到的原始数据,而下半部分展示了扩展后的数据集分布。        
 
 

   图片

 实验结果 

基于 WorkflowBench 数据集,我们对 Llama-3.1-8B 模型进行了微调,获得了 WorkflowLlama。实验结果表明,WorkflowLlama 能够有效地编排复杂工作流,并在未见过的API和指令上展现出卓越的泛化能力。此外,WorkflowBench 还在超出分布的任务规划数据集 T-Eval 上表现出了强大的 0-shot 泛化能力,取得了77.5%的F1计划分数。       

 

我们使用 CodeBLEU 指标评估生成工作流的语法和语义质量,包括 BLEU、加权 N-gram、AST 匹配和数据流匹配等四个方面。并用 ChatGPT 作为自动评估器,评估生成工作流是否能够完成用户查询的任务。
实验结果表明,在 CodeBLEU 和 Pass Rate 指标上,WorkflowLlama 都取得了 SOTA 的成绩,远超其他模型,包括 GPT-4o 和 Llama-3.1-70B 等大参数的模型。
图 4 在未见指令 (ID) 和未见 API (OOD) 场景下,各种模型的性能比较 (%) 
         

 

   
此外,我们发现随着工作流复杂性的提升,使用 WorkflowBench 训练得到的 WorkflowLlama 始终表现优于 GPT-4o 等强基线模型。为了评估模型生成不同复杂度工作流的能力,我们根据动作总数、分支和循环数量以及参考代码的嵌套深度对 CodeBLEU 的性能进行了细分。如图 5 所示,随着动作数量或逻辑复杂性的增加,所有模型的性能都会下降,然而,在所有复杂度水平上,WorkflowLlama 的表现都显著优于其他所有模型。
图 5 基于动作数量、分支和循环数量以及参考代码嵌套深度的性能比较

         

 

实验结果表明,使用 WorkflowBench 训练可以提升 OOD 数据集 T-Eval 的性能。为了进一步评估 WorkflowLlama 的泛化能力,我们在 OOD 基准测试 T-Eval 上进行了实验,该测试广泛用于评估 LLM 利用 API 进行多步决策的能力。如图 6 所示。尽管 WorkflowLlama 在不同的领域和任务上使用不同的 API 进行训练,但在 T-Eval 基准测试中仍然展现出强大的 OOD 泛化性能。且 WorkflowLlama 显著优于未经微调的 Llama3.1-8B 以及更大的开源模型如 Llama-2-70B 和 Qwen-72B。   

图 6 在 T-Eval 的 PLAN 任务上 F1 分数的比较。(粗体表示同一类别模型中的最佳分数)    

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询