AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Weavel Ape超过DSPy,或将成为最好用的提示(prompt)优化工具
发布日期:2024-09-17 21:06:40 浏览次数: 1670 来源:AI工程化


随着LLM应用的越来越多,工程师们面临的一大挑战是如何精准地设计出最优的prompt。这个过程往往需要通过不断的尝试和迭代来完成。加之大型模型的输出具有概率性,每次的输出结果都可能有所差异,这进一步增加了调试提示的难度。为了优化一段提示,工程师们可能需要投入数小时甚至更长的时间。因此,掌握如何撰写有效的提示以及如何对提示进行优化,已成为当前迫切且日益增长的需求。
之前,笔者也介绍过一些这一领域的工具,比如:PromptPerfect,DSPy等,可查看阅读:
Langchain创始人新项目Auto-Prompt Builder一键优化你的Prompt,再也不担心写不好Prompt了

DSPy(声明式自改进语言程序),面向大模型编程的新方法,克服当前LLM应用开发的诸多缺点

今天,介绍一款当前这一领域最强工具——Ape,它是由YC资助的创业公司Weavel开发的一款prompt优化工具,它在GSM 8 K基准测试中得分高达93%,超过BaseLLM的70%及DSPy的86%。

同时,它也可以自动生成评估代码,并使用LLM作为判断,或者自己设置评估指标。

Ape的核心理念非常简单:

            好的输入 + 正确的引导 = 更好的提示。

APE的设计实现受到DSPy的影响,采用数据+迭代的方式进行prompt自我优化,得益于平台产品化的设计,整体使用门槛大大降低,易于上手。

它具备以下能力:

  1. 通过分析prompt和数据集生成评估代码

  2. 运行批量测试来评估prompt

  3. 从之前的测试中提取反馈和洞察

  4. 通过使用贝叶斯优化等统计方法找到最佳prompt

  5. 在改进prompt时考虑Human-in-loop的反馈

它的工作原理如下:

  1. 记录输入输出:仅需一行代码,即可开始记录LLM的调用。

  2. 数据集过滤:Ape将日志过滤成数据集。

  3. 生成评估代码:Ape使用LLM作为复杂任务的评估者。

  4. 持续优化:随着更多生产数据的加入,Ape会持续优化提升prompt性能。

虽然,APE内核已经被开源到github(https://github.com/weavel-ai/Ape),但目前缺乏使用帮助,集成使用可能还需要再等一段时间。当前可以在Weavel产品上体验APE,过程比较简单:

通过创建prompt,添加数据,开启优化三步就能完成prompt优化,训练数据除了上传外,也可以通过接口采集,同时APE提供了prompt版本化以及评估的功能,包含大量的评估方法,如下图。

APE相较于其他工具在能力层面已达到prompt工具的高级水平(prompt的工具分级金字塔详见:一文探秘LLM应用开发(23)-Prompt(相关工具)),这样很容易形成这样的迭代机制,进而保证prompt一直能够不劣化,这和小模型每日更新避免模型性能衰退逻辑十分相似。

数据+迭代的模式已经被验证是行之有效的prompt优化方法,以此思路启发,进一步构建一个“数据+迭代”的自学习LLM应用将是一个新的热点命题。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询