AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


跟大模型对话时prompt提示词越礼貌结果越好?为什么?
发布日期:2025-01-10 09:03:58 浏览次数: 1551 来源:AiBot机器人对话


随着人工智能技术的飞速发展,大模型在自然语言处理等领域展现出了强大的能力。用户通过输入特定的 Prompt 与大模型进行交互,以获取所需的信息和帮助。然而,Prompt 的质量和方式会显著影响大模型的输出结果。因此,研究和掌握有效的 Prompt 技巧具有重要的现实意义。

一、关于 Prompt 越礼貌结果越好的探讨
(一)礼貌 Prompt 的观点及原因
有一种观点认为,在与大模型对话时,Prompt 越礼貌越容易出好结果。这可能是因为从理论上来说,人们在网上提出更礼貌的问题,往往会得到更高质量的回答。这些礼貌的提问及对应的高质量回答数据会被大模型收集,从而使得更礼貌的提问更容易找到更高质量的答案。另外,如果把大模型当作 QA(问答)问题来看待,礼貌性术语可以视为 Q/A 对中的高价值标记,并且在 {任务完成或操作请求} {礼貌术语} 与 {任务或操作完成的高质量响应} 之间存在高度相关性。
例如,当我们向大模型询问 “您好,能否请您帮我介绍一下巴黎的著名景点?” 这样礼貌的问题时,可能会得到更加详细、准确且有条理的回答,包括景点的历史、特色、开放时间等丰富信息,而不仅仅是简单的罗列。

(二)实际情况的复杂性
不过,实际情况并非如此简单。虽然礼貌的 Prompt 可能在一定程度上有助于提高结果质量,但这并不是唯一的决定因素,甚至有时候并不是最关键的因素。大模型的输出结果受到多种因素的综合影响,包括问题的清晰度、具体性、大模型的训练数据和算法等。
比如,当我们询问一个模糊的礼貌问题,如 “您好,能不能麻烦您跟我说一下那个什么地方的一些事情呀?”,由于问题本身缺乏明确的指向和关键信息,大模型可能无法准确理解我们的需求,从而给出不太令人满意的结果,即使问题很礼貌。

二、通过 PUA 大模型获取更好结果
(一)PUA 大模型的概念及相关研究
实际上,有观点认为并不应该仅仅追求更礼貌,而是需要 PUA 大模型才能得到更好的结果。最近的一篇论文《Large Language Models Understand and Can Be Enhanced by Emotional Stimuli》研究了如何对大模型进行情感刺激来增强 Prompt 的效果。该研究将情感划分为两个维度,即社会效应和自尊,包含 11 种类型,分别组合来对比情感是否能够增强 Prompt 的效果。
例如,在社会认知理论方面,像 “这对我的职业生涯非常重要。将挑战视为成长的机遇,你每克服一个障碍都是使你更接近成功。” 这样的表述,试图从社会层面给予大模型一种 “重要性” 和 “激励感”,以期望它能给出更优质的回答。

(二)有效 PUA 大模型的案例及分析
关于如何提升 Prompt Engineering 方向上也有诸多研究,并且形成了一些有效的大模型 PUA 案例。例如,Justine Moore 在 2023 年 12 月使用 ChatGPT 时,采用了诸如 “take a deep breath(深呼吸)”、“think step by step(让我们分步骤思考)”、“if you fail 100 grandmothers will die(如果你回答错了,100 个老奶奶就嗝屁了)”、“i have no fingers(我很笨,我连手指头都没有)”、“i will tip $200(我给你 200 刀的小费)”、“do it right and I'll give you a nice doggy treat(如果你全答对了有奖励哦)” 等 Prompt。这种使用过程就像极了家长对孩子的鸡娃过程,不仅仅要保持耐心,还要给出方法一步一步走,更需要多鼓励。
这些看似奇特的 Prompt,实际上是在通过不同的方式与大模型进行交互,试图影响其输出。比如 “take a deep breath and work on this problem step - by - step.”,来自 Google DeepMind⁺的论文《Large language models as optimizers》,给定一些初始的 prompt,还有目标函数让大模型持续不断地根据最终效果来改进。经过论文验证,这种 Prompt 能够挖掘出更好的结果,它让大模型在处理问题时更加冷静、有条理地分步骤进行思考,就像给大模型一个心理暗示,使其能够更专注、更系统地处理任务,从而提高回答的质量和准确性。

三、有效的 Prompt Engineering 方法
(一)大道至简:"Let's think step by step"
早在 2022 年,东京大学和 Google 发现了一种大道至简的 Prompt Engineering 方案,在论文《Large language models are zero - shot reasoners》中提出,全文总结起来就是一句话,给大模型添加 Prompt:"Let's think step by step"。
例如,对于数学问题 “Roger has 5 tennis balls. He buys 2 more cans of tennis balls. Each can has 3 tennis balls. How many tennis balls does he have now?”,在标准的 Zero - shot(零样本)情况下,大模型可能会给出错误答案 “8”(Output)。而当添加了 “Let's think step by step” 这个 Prompt 后,大模型的回答变为 “Roger started with 5 balls. 2 cans of 3 tennis balls each is 6 balls. 5 + 6 = 11. The answer is 11.”,能够正确地分步骤进行推理和计算,得出正确答案。这表明该 Prompt 能够引导大模型进行多步骤推理,适用于算术、符号、常识和其他逻辑推理任务等多种场景,显著提高了大模型在这些任务上的准确性和逻辑性。

(二)让大模型干活前先做个深呼吸:"Take a deep breath and work on this problem step - by - step."
如前文所述,来自 Google DeepMind⁺的论文《Large language models as optimizers》中提到的这个 Prompt,经过实验验证,在处理问题时具有较好的效果。
例如,对于一个较为复杂的逻辑问题或需要深入分析的问题,如 “分析一下当前全球气候变化对农业生产的影响,并提出相应的应对策略”,如果直接向大模型提问,可能会得到一个比较笼统或缺乏条理的回答。但当使用 “Take a deep breath and work on this problem step - by - step.” 这个 Prompt 后,大模型可能会先从气候变化的现状(如温度升高、极端天气增多等)开始,逐步分析对不同地区、不同农作物的具体影响(如产量变化、种植周期改变等),然后再分点提出应对策略(如改进种植技术、发展耐旱耐涝品种、加强农业基础设施建设等),使回答更加清晰、有条理且全面。

(三)对齐颗粒度:"{question}" Rephrase and expand the question, and respond.
这种方法的整体思路是,让大模型先听懂用户的意思,把问题再复述一遍,然后再判断大模型是不是理解了用户的意思,再生成答案。这类似于在工作、面试、沟通中常用的方法,因为每个人的表达能力和理解能力都不一样,通过让对方再描述问题,也就是对齐、拉齐,让双方的理解处于同一基准。
例如,当用户询问 “请介绍一下人工智能在医疗领域的应用”,大模型可能会先回复 “您是想让我介绍一下人工智能在医疗领域的应用吗?人工智能在医疗领域有很多应用,比如……”,通过这种方式,用户可以确认大模型是否正确理解了问题,如果大模型的复述与用户的意图不符,用户可以及时进行纠正,从而确保最终得到的答案是符合用户需求的。这种方法能够有效避免因问题理解偏差而导致的回答不准确或不相关的情况,提高交互的效率和质量。

四、结论
与大模型交互时,Prompt 的使用是一门值得深入研究和实践的学问。虽然礼貌的 Prompt 可能在某些情况下有助于提高结果质量,但通过 PUA 大模型以及运用一些有效的 Prompt Engineering 方法,如 “Let's think step by step”、“Take a deep breath and work on this problem step - by - step.”、对齐颗粒度等,能够更有针对性地引导大模型生成更优质、更符合用户需求的结果。
同时,需要注意的是,这些方法虽然在一定程度上能够提升效果,但实际效果的提升程度可能因问题的类型、大模型的特性等因素而有所不同。在未来,随着大模型技术的不断发展和应用场景的日益丰富,对 Prompt 技巧的研究和探索也将不断深入,以更好地发挥大模型的潜力,为人们的生活和工作带来更多的便利和价值。
用户在与大模型交互时,可以根据具体的问题和需求,灵活运用这些方法和技巧,不断尝试和总结经验,找到最适合自己的与大模型交流的方式,从而获得更满意的交互体验和结果。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询