AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


langchain的PromptTemplate
发布日期:2024-07-02 08:13:39 浏览次数: 1814


模块(Modules)概览

LangChain 提供了一个标准的可扩展的接口,可以方便地与外部其他组件进行交互以满足面向特定领域 LLM 应用的需求,它也能够与外部其它组件/中间件连接和交互。这些模块根据功能及行为方式,分为 6 个类别,如下表所示:

模块名称模块功能
Model I/O用于与 LLM 语言模型交互
Retrieval用于与应用特定的数据进行交互
Agents用于确定 LLM 需要采用的 Action 及其顺序的决策,即智能体应用
Chains用于构建顺序调用的多个构建块(Building Block),主要支持通过 LCEL 的方式构建
Memory用于在多轮对话过程中保存应用状态
Callbacks回调系统,用来支持 LLM 应用的日志记录、监控、Streaming 处理,等等

简介

上一章节《langchain中大模型的输出格式化》中,我们介绍了langchain的格式化输出形式,这一章节会介绍下PromptTemplate。可以重点理解下上述图,对于文本生成模型服务来说,实际的输入和输出本质上都是字符串,因此直接调用LLM服务带来的问题是要在输入格式化和输出结果解析上做大量的重复的文本处理工作。那么从技术工程的角度是希望输入更可控更有模块性,要方便易用。因此,langchain提供了很多提示模版,可以按照需要动态生成提示语,帮助我们更容易使用LLM。提示词模版不仅是语义层面的信息输入,还有语法层面的组装(利用占位符或者语法表达式生成)。提示词的模版格式默认是Python 3.6引入的f-string格式,也支持Flask web 框架的Jinja2风格。

进阶

PromptTemplate

PromptTemplate是最常见也是最基础的提示模版,比较灵活,如下面代码所示:

from langchain_core.prompts import PromptTemplate

prompt = PromptTemplate.from_template("Hello {name}!")print(prompt.format(name="World"))

这里的name 就是占位符,在需要的时候通过format赋值。通俗点来说,就是LLM需要一些输入,但是输入是不固定的,因此需要通过设置一些固定的占位符,然后在真正执行的时候进行替换成完整的提示词。

partial函数

partial函数可以一步步的传入参数,也支持传入函数,因为有时候虽然局部传递了某个或者某些参数,但是需要在最终format时候才计算,更加灵活。


prompt = PromptTemplate.from_template("Hello {your_name}!My name is {my_name}!")partial_prompt = prompt.partial(your_name="World")print(partial_prompt.format(my_name="LangChain"))

上面的示例中并不是一次性赋值替换,而是先替换了your_name,在实际执行的时候替换my_name。

prompt = PromptTemplate(template="Hello {name}! The current time is {current_time}",input_variables=["name", "current_time"])print(prompt.format(name="World", current_time=_get_current_time()))partial_prompt = prompt.partial(current_time=_get_current_time)# partial_prompt = prompt.partial(date=_get_current_time())print(partial_prompt.format(name="World"))

需要注意的是上述代码里面里current_time变量的值是在format时才获取的。如果改成注释的这句,就变成执行到这里时就执行,而不是等到format时,这是一个显著的区别。如果想显示声明partial变量,不需要执行partial方法,可以参考下面的方式

prompt = PromptTemplate(template="Hello {name}! The current time is {current_time}",input_variables=["name"],partial_variables={"current_time": _get_current_time})print(prompt.format(name="World"))

ChatPromptTemplate

ChatPromptTemplate是常用的chat提示模版,PromptTemplate其实就是字符串模版,而聊天模板会更复杂,因为对话里会多重角色,如系统、用户、AI等。ChatPromptTemplate 由一系列聊天消息组成,每条消息都是一对角色和消息。聊天模型将这些消息作为输入并返回消息作为输出。

from langchain_core.prompts import ChatPromptTemplatechat_template = ChatPromptTemplate.from_messages([("system", "You are a helpful assistant that translates {input_language} to {output_language}."),("human", "{text}"),])print(chat_template.format_messages(input_language="English", output_language="French", text="I love programming."))

输出如下:

[SystemMessage(content='You are a helpful assistant that translates English to French.'), HumanMessage(content='I love programming.')]

ChatMessagePromptTemplate 

ChatMessagePromptTemplate是一种自定义的角色类型,上面的ChatPromptTemplate是系统内置的,确切的来说是以openai的对话模型来设计的。如果我们希望自定义角色,那么可以通过ChatMessagePromptTemplate实现。

from langchain_core.prompts import ChatMessagePromptTemplatechat_template = ChatMessagePromptTemplate.from_template(role="my ai",template="You are a helpful assistant that translates {input_language} to {output_language}.",input_variables=["input_language", "output_language"])messages = chat_template.format_messages(input_language="English", output_language="French")print(messages)

比如在多角色对话模拟或者特定交互逻辑时会用到自定义role。

在LCEL里使用PromptTemplate

LCEL是langchain 表达式语言,因为 PromptTemplate 和 ChatPromptTemplate 已经实现了Runnable接口,所以在LCEL里可以直接使用。

from langchain_openai.chat_models import ChatOpenAIfrom langchain_core.prompts import ChatPromptTemplatefrom langchain_core.output_parsers import StrOutputParser
chat = ChatOpenAI(temperature=0)prompt = ChatPromptTemplate.from_template("Hello {name}!")output_parser = StrOutputParser()chain = prompt | chat | output_parserprint(chain.invoke({"name": "World"}))

上述的效果等同于下面,只是上述的LCEL语法更简洁

print(output_parser.invoke(chat.invoke(prompt.invoke({"name": "World"}).messages)))

Jinja2风格

上述的f-string风格最大问题是它单纯的是一个字符串拼接的模版,缺乏更多的表现形式。所以langchain也支持其他风格,例如jinja2这个模版风格。jinja2是Python语言里知名的Web框架Flask内置的模版风格,性能好,风格自由。下面的示例说明如何使用Jinja2风格模版.使用前,需要先安装

pip install jinja2
jinja_prompt = PromptTemplate.from_template(template_format="jinja2", template="Hello {{name}}!,today is {% if " "content %}{{content}}{% else " "%}Monday{% endif %}")print(jinja_prompt.format(name="World", content="Tuesday"))print(jinja_prompt.format(name="World"))

jinja2使用双大括号包裹变量,然后使用大括号加百分号作为一个block区块,里面可以使用判断等更复杂的语法去表达。比如上面的例子,先会判断是否传入content,如果不传入就是用Monday,否则就用传入的content作为这部分的参数。这样表现力就很强了。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询