AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


它来了,剑桥最新LLM提示词压缩调查报告
发布日期:2024-10-29 21:59:34 浏览次数: 1695 来源:AI修猫Prompt



别说Prompt压缩不重要,你可以不在乎Token成本,但总要考虑内存和LLM响应时间吧?一个显著的问题逐渐浮出水面:随着任务复杂度增加,提示词(Prompt)往往需要变得更长,以容纳更多详细需求、上下文信息和示例。这不仅降低了推理速度,还会增加内存开销,影响用户体验。


作为一线AI应用开发者,你是否经常遇到这些困扰:


- 复杂任务需要超长提示词,但API调用总是超时

- 系统prompt和few-shot例子加起来轻松突破4K tokens


- 提示词成本居高不下,但又不得不用


- 压缩提示词后效果直线下降


剑桥大学最新发表的这篇综述论文,全面总结了目前学术界和工业界在提示词压缩领域的最新进展,为实战派带来了新的解决思路,提示词压缩这一篇文章足够了。


01

 提示词压缩的本质是什么?


提示词压缩的核心目标是在保持模型性能的同时,减少输入序列的长度。目前主要有两大类方法:


提示压缩方法的说明性示例。硬提示方法删除了 low information 标记或释义以保持简洁。软提示方法将文本压缩为数量较少的特殊标记,

1. 硬提示词压缩(Hard Prompt Methods)


这类方法通过删除、重写等方式直接对自然语言提示词进行压缩。主要包括:


过滤式压缩:


- SelectiveContext:使用自信息量来量化词语重要性,删除冗余内容


- LLMLingua:使用小型语言模型(如GPT-2)计算困惑度,去除低信息量token


- LLMLingua-2:通过数据蒸馏训练分类器来保留关键token


改写式压缩:


- Nano-Capsulator:使用fine-tuned Vicuna-7B将原始提示词重写为更简洁的版本


- CompAct:专注于问答场景下的文档压缩重写


2. 软提示词压缩(Soft Prompt Methods)


这类方法将自然语言提示词编码为连续向量表示。主要包括:


仅解码器架构:


- CC(对比条件压缩):训练短软提示词来近似原始提示词的输出分布


- GIST:修改注意力机制,用特殊token替代原始提示词


- AutoCompressor:递归压缩,可处理长度达30,720的提示词


编码器-解码器架构:


- ICAE:专注于压缩信息密集的上下文,保持问题部分不变


- 500xCompressor:通过KV值存储实现高压缩比


- xRAG:使用冻结的嵌入模型作为编码器


- UniICL:专注于压缩few-shot示例

02

 实战应用:如何选择合适的压缩方法?


这是目前最新、最全的一份提示词压缩调查,考虑的因素比较多,刨除了不少水论文,软硬具体方法您有兴趣可以研究一下,这里只聊实战。

在实际工作中,选择合适的提示词压缩方法往往会直接影响项目的成败。作为Prompt工程师,我们需要深入理解不同场景下的最佳实践。让我们通过具体场景来详细探讨如何做出正确的选择。


通用对话场景的压缩方案


在日常对话类应用中,比如客服机器人或者智能助手,我们主要面临的是指令和对话内容的压缩需求。这类场景的特点是对话结构相对固定,但上下文信息需要不断累积。


如果你的应用场景是短对话(通常少于1000个tokens),GIST是一个非常好的选择。它能够将原始提示词压缩到原来的1/26,同时保持较好的对话质量。GIST的工作原理是通过修改注意力机制,让模型能够从压缩后的特殊token中提取关键信息。虽然这些压缩后的token对人类来说不可读,但它们能够很好地保持原始提示词的语义信息。


对于更长的对话场景(可能达到30K tokens),建议使用AutoCompressor。它采用递归压缩的方式,可以处理更长的上下文。这种方法特别适合需要保持长期记忆的对话场景,比如在线辅导或者技术支持对话。不过需要注意的是,使用AutoCompressor需要更多的计算资源,因此在部署时要考虑服务器的配置情况。


检索增强生成(RAG)系统的压缩策略


在构建知识密集型应用时,RAG系统的文档压缩是一个特别重要的问题。这类系统需要处理大量的检索文档,如何高效压缩这些文档直接影响系统的响应速度和效果。


对于单文档压缩场景,CompAct是一个很好的选择。它的特别之处在于采用了语义导向的压缩策略,也就是说,它不是简单地删除词语,而是会分析文档中与问题相关的重要信息,确保压缩后的内容仍然包含解答问题所需的关键信息。


如果你的系统需要同时处理多个文档,xRAG值得考虑。它最大的特点是可以将整个文档压缩为单个token,这在处理大量文档时特别有效。不过需要注意的是,压缩比例过高可能会导致信息损失,因此在实际应用中需要根据具体需求来平衡压缩率和信息保留度。


对于那些检索内容经常变化的动态场景,RECOMP提供了一个灵活的解决方案。它的特色是可以根据问题的具体内容动态调整压缩策略,实现选择性增强。这意味着它能够根据不同的问题类型保留最相关的信息,提高答案的准确性。


Few-shot学习场景的压缩方案


在需要大量示例来提升模型表现的few-shot学习场景中,如何有效压缩示例同时保持其效果是个关键问题。这种场景的特殊之处在于,我们需要在保持示例多样性的同时减少存储空间。


UniICL在这类场景下表现出色。它的核心优势是可以将示例压缩成高度凝练的形式,同时保持示例之间的差异性。使用UniICL时,你不需要修改当前的问题部分,只需要关注示例的压缩。这种方法特别适合那些需要频繁更新示例库的应用场景。


具体操作时,建议先对示例进行质量评估,筛选出最具代表性的样本。然后使用UniICL进行压缩,这样可以确保压缩后的示例仍然保持良好的效果。对于动态场景,你可能需要定期更新压缩后的示例库,以适应新的需求。


Agent系统中的压缩应用


在Agent系统中,我们面临的主要挑战是如何压缩大量的API文档和工具描述信息。这类信息通常结构化程度高,但内容较为专业和详细。


HD-Gist在这种场景下表现出色。它能够很好地理解和压缩技术文档,同时保持关键的操作信息完整。使用HD-Gist时,你可以放心地压缩API文档,因为它会确保保留所有必要的参数信息和使用说明。


对于工具密集型的Agent系统,建议采用分层压缩策略。首先对工具文档进行基础压缩,然后根据使用频率进行差异化处理。高频使用的工具可以保留更多细节,低频工具则可以采用更高的压缩比。这样可以在保证系统效率的同时,确保常用功能的准确性。


性能与效率的平衡


在选择压缩方案时,需要特别关注性能和效率的平衡。不同方法的压缩比和计算开销差异很大:


LLMLingua提供了最高20倍的压缩比,它的特点是压缩速度快,适合需要快速响应的场景。如果你的应用对延迟特别敏感,这是一个很好的选择。


500xCompressor则提供了惊人的480倍压缩比,但这种高压缩比是以较高的计算成本为代价的。它适合那些对存储空间要求特别严格,但对计算资源要求相对宽松的场景。


ICAE提供了4-16倍的压缩比,虽然压缩比不是最高的,但它的效果最为稳定可靠。在实际应用中,它往往能提供最好的性能平衡点。


实施过程中的注意事项


在实施提示词压缩方案时,有几个关键点需要特别注意:


首先是监控系统。建议设置完整的监控体系,包括压缩率、响应时间、错误率等关键指标。这些数据能帮助你及时发现问题并做出调整。比如,如果你发现某些特定类型的提示词压缩后效果明显下降,可能需要为这类内容设置特殊的处理规则。


其次是性能基准。在部署压缩方案前,最好先建立清晰的性能基准。这包括原始系统的响应时间、准确率等指标。有了这些基准,你才能客观评估压缩方案的效果。


最后是渐进式部署。建议先在小规模场景下测试,确认效果后再逐步扩大应用范围。这样可以最大限度地降低风险,同时积累经验。


成本控制与优化


在实施压缩方案时,成本控制是不能忽视的重要因素。这里的成本不仅包括直接的计算资源消耗,还包括维护成本和潜在的风险成本。


对于计算成本,建议建立详细的成本核算体系。要考虑压缩阶段的计算成本、推理阶段的资源消耗以及维护升级的投入。通过这些数据,你可以更好地评估不同压缩方案的投资回报比。


在维护成本方面,要考虑到方案的可持续性。一个好的压缩方案应该易于维护和升级,能够适应未来的需求变化。因此,在选择方案时,除了关注当前的性能指标,还要评估方案的可维护性和扩展性。


总结一下,选择合适的提示词压缩方法是一个需要综合考虑多个因素的复杂决策过程。需要根据具体的应用场景、性能需求和资源约束来做出选择。同时,要建立完善的监控和优化机制,确保压缩方案能够持续发挥最佳效果。通过合理的选择和实施,提示词压缩技术可以显著提升大语言模型应用的效率和可用性。

03

技术深度解析:四种理解视角


1. 注意力机制优化


提示词压缩本质上是一种特殊的注意力优化。在标准Transformer中,每个新生成的token都需要注意之前的所有token,这导致计算复杂度随序列长度增加。可以看下《微软最新的结构化Prompt优化方法SAMMO,让你更快的压缩结构化提示词


软提示词压缩通过两个阶段优化这一过程:


1. 少量特殊token关注全量输入,存储关键信息


2. 生成新token时只需关注压缩后的token


这种方式有效降低了计算量,但由于使用了LoRA等参数,生成的KV值与原始LLM不同。


2. 参数高效微调视角


可以将软提示词压缩类比为Prompt Tuning和Prefix Tuning:


- ICAE类似Prompt Tuning:编码器生成的嵌入类似于可训练的提示词嵌入


- 500xCompressor类似Prefix Tuning:直接生成KV值,包含更丰富的信息


3. 模态集成视角


压缩后的提示词可以视为一种新的模态,类似于视觉-语言模型中的图像特征:


- 编码器将自然语言转换为特殊嵌入


- 解码器学习理解和使用这种压缩表示


- 需要更高的压缩精度,因为文本信息密度更大


4. 新型合成语言视角


压缩token序列构成了一种LLM专用的新型语言:


你可以看下这篇《比LLMLinggua效果更好的PROMPT-SAW提示感知图压缩技术,我用Python复现》

- 可以编码和传递信息


- 支持在不同模型间迁移


- 模型可以动态调整理解和输出

04

现存挑战与野望


目前主要挑战存在于三个方面:


1. 微调问题:


- 灾难性遗忘


- 过拟合风险


- 模型漂移


- 提示词遵循 可以看下《剑桥、APPLE等最新,揭秘LLM指令遵循不确定性评估方法 | ICLR2025

2. 效率提升有限:


- 压缩过程耗时


- 编码器内存开销大


- 短输出场景收益低


3. 缺乏系统比较:


- 与传统注意力优化方法缺乏对比


- 不同压缩方法间的权衡分析不足


野望

提示词压缩技术正在快速发展,为大语言模型的高效应用提供了重要支持。作为Prompt工程师,我们需要:


1. 持续关注新方法:


- 跟踪学术界最新进展


- 验证工业界实践经验


- 参与开源项目建设


2. 深入理解原理:


- 掌握不同压缩方法的特点


- 理解底层技术机制


- 建立系统性认知

参考资源:


1. 原始论文:[Prompt Compression for Large Language Models: A Survey](https://arxiv.org/abs/2410.12388V2)


2. 相关代码实现:


- LLMLingua: https://github.com/microsoft/LLMLingua


- GIST: https://github.com/jayelm/gisting


- 500xCompressor: https://github.com/ZongqianLi/500xCompressor (本文第一作者的Github)



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询