微信扫码
与创始人交个朋友
我要投稿
(ACL 2022 outstanding paper)
1.1 太长不看版
样本顺序影响结果
1.2 仔细说明版
样本顺序指的是在训练机器学习模型时,输入样本的排列方式。在大多数传统的监督学习场景中,模型会被训练在大量标记好的数据上,样本的顺序通常被认为是无关紧要的,因为模型通过梯度下降等优化算法学习数据中的模式,理论上不会受到样本顺序的影响。
然而,在**少量样本学习(few-shot learning)或上下文学习(in-context learning)**的设置中,样本顺序变得非常重要。在这些设置中,模型不是通过梯度下降来调整参数,而是通过观察少量的示例来生成预测。这些示例被用作上下文或提示(prompts),直接引导模型对新的输入做出反应。因此,即使是相同的几个样本,如果它们的顺序不同,也可能导致模型做出完全不同的预测。
例如,假设我们有一个分类任务,需要模型识别文本的情感倾向(积极或消极)。如果我们提供给模型两个示例:一个积极和一个消极的评论,那么这两个示例的顺序可能会影响模型对新评论情感的判断。如果模型先看到消极的评论,它可能会对后续的评论倾向于预测消极的结果,反之亦然。
论文中,作者们通过实验发现,在少量样本学习中,样本顺序会让预训练语言模型的性能在SOTA和随机猜之间波动。他们进一步提出了一种方法,通过构建人工开发集并使用熵统计量来识别出性能较好的样本顺序,也即构建更好的prompt,从而提高了模型的预测准确性和鲁棒性
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-04-11
2024-08-21
2024-07-09
2024-08-13
2024-07-18
2024-10-25
2024-07-01
2024-06-17