AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


​认识 PromptPoet人人都在讨论的新提示工程框架
发布日期:2024-09-04 07:35:45 浏览次数: 1597


最初由 Character.ai 创建,PromptPoet 抽象了提示工程的一些核心构建块。

提示工程是一种必要的恶。作为计算机科学家,我讨厌这种输入正确的词语并希望它产生正确结果的想法。然而,高质量的提示是当今 LLM 应用程序的重要组成部分,因此我们需要帮助完成此任务的工具和框架。在这个类别中,最近最有趣的工具集之一来自 Character.ai,这是一家最近与 Google 进行战略交易的高飞 AI 初创公司。PromptPoet 是一个灵活的框架,旨在设计和集成高质量的提示。

PromptPoet

旨在帮助开发者和非技术用户,PromptPoet 实现了高效的提示设计和管理,无需复杂的字符串操作。该工具使用户能够专注于创建有效的提示,从而摆脱编码的技术细节。

PromptPoet 的一部分秘密在于它使用了 Python 的 f-strings,这已成为许多开发者的首选方法。虽然一开始看起来简单,但 f-strings 可能迅速变得复杂,构建复杂的提示需要大量的手动努力。这种复杂性对非技术用户构成了障碍,因为它需要编程知识。

以下是使用 PromptPoet 的基本示例:

- name: system instructions
role: system
content: |
Your name is {{ character_name }} and you are meant to be helpful and never harmful to humans.

- name: user query
role: user
content: |
{{ username}}: {{ user_query }}

- name: response
role: user
content: |
{{ character_name }}:

PromptPoet 从 UI 设计中汲取灵感,将提示视为其运行时状态的动态函数,涵盖模板、数据和令牌限制等元素。

提示模板

PromptPoet 将重点从提示工程转向设计,使用户能够在模板上进行迭代,而不是在代码上。利用 YAML 和 Jinja2 的结合,这些模板既灵活又易于适应,促进了高效的提示创建和管理。模板处理涉及两个主要阶段:

  • 渲染:这个初始阶段涉及 Jinja2 处理输入数据,执行控制逻辑,验证数据,将其绑定到变量,并在模板内评估函数。

  • 加载:渲染后,输出被结构化为 YAML 文件,由重复的段落组成,每个段落组织成一个 Python 数据结构。这些段落具有几个关键属性:

  • 名称:段落的清晰标识符。

  • 内容:构成提示一部分的字符串负载。

  • 角色(可选):指定参与者角色,帮助区分用户和系统组件。

  • 截断优先级(可选):在需要时建立截断顺序,具有相同优先级的段落按顺序截断。

PromptPoet 库提供了众多功能,包括标记化和截断,优化了高效缓存和快速响应。这些功能对于提升性能至关重要。

prompt.tokenize()
prompt.truncate(token_limit=TOKEN_LIMIT, truncation_step=TRUNCATION_STEP)

# Inspect prompt as a raw string.
prompt.string: str
>>> "..."

# Inpsect the prompt as raw tokens.
prompt.tokens: list[int]
>>> [...]

# Inspect the prompt as LLM API message dicts.
prompt.messages: list[dict]
>>> [...]

# Inspect the prompt as first class parts.
prompt.parts: list[PromptPart]
>>> [...

模板语言

结合 Jinja2 和 YAML,PromptPoet 提供了一种强大而富有表现力的模板语言。Jinja2 允许在模板内直接绑定数据、调用函数和进行基本控制流。YAML 提供结构,使在超出令牌限制时能够进行复杂的截断。这种结合类似于 Ansible 等系统中使用的方法。

提示可移植性

在 Character.AI,模型增强是持续进行的,以更好地与用户偏好对齐。为此,提示需要在离线环境中重建,以便进行评估和后训练任务。模板化提示使团队之间的无缝共享成为可能,无需集成单独的代码段。

模板内的函数调用

Jinja2 的一个显著特性是能够在运行时直接在模板内调用 Python 函数。这一能力对于实时数据检索、操作和验证至关重要,简化了提示的构建。例如,extract_user_query_topic 可以对用于模板控制流的用户查询进行复杂处理。

{% if extract_user_query_topic(user_query) == "homework_help" %}
{% for homework_example in fetch_few_shot_homework_examples(username, character_name) %}
- name: homework_example_{{ loop.index }}
role: user
content: |
{{ homework_example }}
{% endfor %}
{% endif %}

自定义编码选项

默认情况下,PromptPoet 使用 TikToken “o200k_base” 令牌化器。然而,用户可以通过 tiktoken_encoding_name 选项指定替代编码名称,或通过 encode_func: Callable[[str], list[int]] 参数提供自定义编码函数。

from tiktoken import get_encoding
encode_func = get_encoding("o200k_base")

prompt = Prompt(
raw_template=raw_template,
template_data=template_data,
encode_func=encode_func
)
prompt.tokenize()
prompt.tokens
>>> [...]

理解截断

如果您的 LLM 提供商支持 GPU 亲和性和前缀缓存,可以利用 Character.AI 的截断算法来最大化前缀缓存率。该率由缓存提示令牌与总提示令牌的比率决定。调整截断步骤和令牌限制可以优化缓存性能,尽管增加步骤可能会导致更多的令牌截断。

解释缓存感知截断

截断策略在通过优化消息截断来实现高缓存率方面至关重要。该策略并不是每次都截断到固定的令牌限制,而是每隔几轮截断到一个稳定点。这种方法保持了连续的令牌序列,最大化了GPU前缀缓存的使用。仅在必要时移动截断点确保了资源的有效利用。

简单截断问题

在包含消息M1到M10的聊天场景中,简单截断在每轮调整截断点,降低了缓存效率并增加了计算成本。

缓存感知截断的好处

Character.AI的缓存感知算法在每隔几轮保持一致的截断点,维护到最新消息的令牌序列。这允许重用来自前几轮的缓存计算,从而提高效率。参数k反映了截断步骤与平均令牌数量之间的平衡,尽管无法直接控制。

PromptPoet现在是开源的,应该会鼓励许多开发者在其功能基础上进行构建。至少,PromptPoet已经封装了Character.ai在提示设计方面学到的许多经验教训。无疑是对提示工程领域的一个受欢迎的补充。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询