微信扫码
与创始人交个朋友
我要投稿
推理模型的新挑战:Prompt的变革与优化。核心内容:1. 推理模型与传统SFT模型的差异及其对Prompt写作的影响2. 推理模型训练方式对Prompt设计的新要求3. 起点与终点:如何优化Prompt以提升推理模型性能
之前的 Prompt,针对的都是 SFT Model,清晰明确地表达自己的思路,引入 Few-shots 示范想要的「味道」,都是为了引导大模型「得我们的意」,输出符合我们需求的内容。
GPT-o1,Deepseek-R1,这类 RL/RLHF Model 来了。它们在 SFT Model 基础上,引入了 RL 的训练方式,给模型 Q & A,让模型自己尝试推理如何从 Q ⇒ A。结果就是 SFT 的模型参数发生了变更,出现了「推理能力」。
「模型参数」变了,「模型宇宙」的天也就变了。Prompt 的写法当然也得跟着变。之前的 Chain-of-thoughts 和 Few-shots 写法,在这类 RL/RLHF 模型上,效果会「变差」。这些曾经有助于引导思考过程的方法,和推理模型习得的「推理能力」发生了冲突。我们的引导,对它不再是帮助,而变成了阻碍。
读了论文,学习了网络上大家的写法示例,大家都在说「清晰直接地说自己想要什么」就好了。一句话丢给推理模型就收获非常不错的回复,那有没有办法「稍微」拧一下 Prompt,就有可能收获「更好」的回复?
怎么拧?把目光甩回到 RL Model 的训练方式上,训练时喂进去的 Q&A 代表着什么?我的理解,Q 代表着「起点」,当前任务的背景信息;A代表着「终点」,我们期待的理想回复。我们使用推理模型,也应按它的这个训练模式来提供信息:只有起点和终点,没有过程。
推理模型的特点就是它会推理,我们不要指手画脚的干预,要顺应它的天性,给它 Q 和 A。
起点,即我们的任务信息。针对不同任务,提供的信息丰富度和明确度有区分,如果拉一条轴,左端可为「隐式」,右端为「显式」。任务描述越清晰越丰富,就越接近「显式」,反之为「隐式」。
终点,即我们期望的结果。针对不同任务,我们期待收获高质量的回复。这个「高质量」,用什么来描述?如果拉一条轴,尽可能覆盖通用的任务场景,我觉得可以尝试抽象之梯:顶部为「抽象」,底部为「具体」。对结果的期望,在抽象层级层面进行表达。
最近总是头痛,下午特别严重,对光敏感。列举最可能的三类疾病诊断,按概率排序,并分别注明需要补充的检查项目
我需要为 2023 款特斯拉 Model Y 更换前轮轮胎,该车使用 19 寸轮毂,当前在郊区公路抛锚。请给出包含工具清单、安全注意事项的 10 步操作指南,步骤间用->连接
以'量子纠缠'和'禅宗公案'为思维基点,建构一个解释数字时代人际关系的认知模型,需满足:图形化表达、兼容哈贝马斯交往理论。
请解释什么是「在场」
...
这只是一个初步的思考框架,还有待后续的测试对比改进,期待大家的反馈和建议。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-08
腾讯云究极薅羊毛部署最近爆火的DeepSeek
2025-02-08
2个安装包1条命令搞定:DeepSeek-R1最佳本地部署+知识库+联网搜索
2025-02-08
新增AI Agent,GitHub Copilot重大更新,超强自动化编程
2025-02-08
微调碾压RAG?大模型意图识别工程化实践
2025-02-08
微软官宣All in智能体,SWE Agent首曝光!奥特曼预警2025编程巨变
2025-02-07
我们应如何看待DeepSeek的557.6万美元训练成本?|甲子光年
2025-02-07
10分钟让WPS接入DeepSeek,实现AI赋能
2025-02-07
“李飞飞团队50美元复刻DeepSeek R1”之辨
2024-09-18
2025-02-04
2024-07-11
2024-07-11
2024-07-26
2024-07-09
2025-02-04
2025-01-27
2024-12-29
2024-06-11