微信扫码
添加专属顾问
我要投稿
Prompt-Tuning,一种高效微调大模型的新方法,让模型以更少的资源实现更好的效果。核心内容:1. Prompt-Tuning的原理和核心思想2. Prompt-Tuning相比传统微调的优势3. Prompt-Tuning的代码实现和工作原理解析
Prompt-Tuning是一种参数高效微调方法,核心思想可以类比:技术人员不去修改知识渊博的教科书(预训练好的大模型),而是在书的开头(输入层)添加几张非常智能的、可学习的便利贴(软提示/虚拟token(Soft Prompt) 或者叫虚拟提示词-Virtual Tokens),便利贴上的内容不是固定的文字,而是模型可以自己学习调整的参数(向量)。
训练时,冻结原始模型的绝大部分参数,只训练新添加的便利贴参数,让模型看到特定的便利贴时,就按照我们期望的方式去执行任务。
代码将展示Prompt-Tuning的完整实现过程,并解释其工作原理。(运行环境需pip加装PEFT包,本代码采用的PEFT版本为0.14.0)。
Prompt-Tuning方法主要体现在第四步和第八步,需重点阅读,其余代码与往期基本一致。
import torch
from datasets import Dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, DataCollatorForSeq2Seq, TrainingArguments, Trainer
from peft import PromptTuningConfig, get_peft_model, TaskType, PromptTuningInit, PeftModel
# 包含 'instruction' (指令), 'input' (可选的额外输入), 'output' (期望的回答)
ds = Dataset.load_from_disk("../data/alpaca_data_zh/")
将每个样本处理成包含 input_ids, attention_mask, 和 labels 的字典。
tokenizer = AutoTokenizer.from_pretrained("D:\\git\\model-download\\bloom-389m-zh")
defprocess_func(example):
MAX_LENGTH = 256
# 构建输入文本:将指令和输入(可选)组合到一起,并添加明确的 "Human:" 和 "Assistant:" 标识符。"\n\nAssistant: " 是提示模型开始生成回答的关键分隔符。
prompt = "\n".join(["Human: " + example["instruction"], example["input"]]).strip() + "\n\nAssistant: "
# 对输入+提示进行分词,这里暂时不添加特殊token (<s>, </s>),后面要拼接
instruction_tokenized = tokenizer(prompt, add_special_tokens=False)
# 对期望的输出(回答)进行分词,在回答的末尾加上 `tokenizer.eos_token` (end-of-sentence)。告诉模型生成到这里就可以结束。
response_tokenized = tokenizer(example["output"] + tokenizer.eos_token, add_special_tokens=False)
# 将输入提示和回答的 token IDs 拼接起来,形成完整的输入序列 input_ids
input_ids = instruction_tokenized["input_ids"] + response_tokenized["input_ids"]
# attention_mask 用于告诉模型哪些 token 是真实的、需要关注的,哪些是填充的(padding)。
attention_mask = instruction_tokenized["attention_mask"] + response_tokenized["attention_mask"]
# 创建标签 (labels):这是模型需要学习预测的目标,因为只希望模型学习预测 "Assistant:" 后面的回答部分,所以将输入提示部分的标签设置为 -100,损失函数自动忽略标签为 -100 的 token,不计算它们的损失。
labels = [-100] * len(instruction_tokenized["input_ids"]) + response_tokenized["input_ids"]
# 截断
iflen(input_ids) > MAX_LENGTH:
input_ids = input_ids[:MAX_LENGTH]
attention_mask = attention_mask[:MAX_LENGTH]
labels = labels[:MAX_LENGTH]
# 返回处理好的数据
return {
"input_ids": input_ids,
"attention_mask": attention_mask,
"labels": labels
}
# .map() 方法将处理函数应用到整个数据集的所有样本上。
tokenized_ds = ds.map(process_func, remove_columns=ds.column_names) # `remove_columns` 会移除原始的列,只保留 process_func 返回的新列。
print("\n检查第2条数据处理结果:")
print("输入序列 (input_ids解码):", tokenizer.decode(tokenized_ds[1]["input_ids"]))
target_labels = list(filter(lambda x: x != -100, tokenized_ds[1]["labels"])) # 过滤掉 -100,看看模型真正需要预测的标签是什么
print("标签序列 (labels解码,过滤-100后):", tokenizer.decode(target_labels))
这一步是Prompt-Tuning 的核心步骤,需要嵌入一段文本来初始化"虚拟提示词",将文本分词后,对应的词向量(embedding)作为虚拟提示词的初始值。
最后的num_virtual_tokens
是指虚拟提示词嵌入向量的数量,也是唯一需要训练的参数。
model = AutoModelForCausalLM.from_pretrained("D:\\git\\model-download\\bloom-389m-zh")
# 配置 Prompt Tuning
config = PromptTuningConfig(
task_type=TaskType.CAUSAL_LM, # 因果语言模型
prompt_tuning_init=PromptTuningInit.TEXT, # PromptTuningInit.TEXT 表示用一段文本的嵌入来初始化"虚拟提示词",比随机初始化效果好。
prompt_tuning_init_text="下面是一段人与机器人的对话。", # 对文本分词,对应的词向量(embedding)作为虚拟提示词的初始值。
num_virtual_tokens=len(tokenizer("下面是一段人与机器人的对话。")["input_ids"]), # 虚拟提示词的数量,等于初始化文本分词后的长度,这 `num_virtual_tokens` 个虚拟提示词的嵌入向量,就是唯一需要训练的参数!
tokenizer_name_or_path="D:\\git\\model-download\\bloom-389m-zh"
)
# 通过`get_peft_model`函数将 Prompt Tuning 配置应用到基础模型上,函数会在模型内部添加可学习的 Prompt Encoder,并自动冻结基础模型的其他所有参数。
model = get_peft_model(model, config)
# 查看模型结构的变化,会多出一个 prompt_encoder 部分
print("PEFT 模型结构:", model)
# 检查可训练参数:打印并对比可训练参数的数量和总参数数量。
model.print_trainable_parameters() # 'trainable parameters' 远小于 'all parameters'。
args = TrainingArguments(
output_dir="./chatbot_prompt_tuning_explained_zh",
per_device_train_batch_size=1,
gradient_accumulation_steps=8, # 梯度累积:相当于有效批次大小为 1 * 8 = 8,对于显存有限的情况有用
logging_steps=10, # 每训练 10 步,打印一次日志信息(如loss)
num_train_epochs=1, # 训练轮数
save_steps=100, # 每训练 100 步,保存一次模型检查点(checkpoint)
# learning_rate=1e-3, # Prompt Tuning 通常可以使用比完全微调稍大的学习率
# gradient_checkpointing=True, # 可以节省显存,稍慢一点,如果显存不足可以开启
)
trainer = Trainer(
model=model,
args=args,
tokenizer=tokenizer,
train_dataset=tokenized_ds,
data_collator=DataCollatorForSeq2Seq(tokenizer=tokenizer, padding=True),# 数据整理器:负责将数据集中的样本组成一个批次(batch),并进行必要的填充(padding)
)
trainer.train() # 仅优化虚拟token的参数,基础模型的权重冻结。
隐式提示
,引导其生成特定风格或内容的回答;PeftModel.from_pretrained
将两者结合起来。# 1. 加载基础模型
base_model = AutoModelForCausalLM.from_pretrained("D:\\git\\model-download\\bloom-389m-zh")
# 2. 指定 PEFT 适配器权重所在的目录
peft_model_path = "./chatbot_prompt_tuning_explained_zh/checkpoint-3357/"
# 3. 加载 PEFT 适配器并将其应用到基础模型上
peft_model = PeftModel.from_pretrained(model=base_model, model_id=peft_model_path)
if torch.cuda.is_available():
peft_model = peft_model.cuda()
print("模型已移动到 GPU。")
else:
print("未检测到 CUDA,将在 CPU 上运行推理。")
# 准备输入文本
instruction = "考试有哪些技巧?"
input_text = ""
prompt = f"Human: {instruction}\n{input_text}".strip() + "\n\nAssistant: "
print(f"\n用于推理的输入 Prompt:\n{prompt}")
# 将输入文本分词,转换为tensors,然后移动到模型所在的设备 (CPU 或 GPU)
ipt = tokenizer(prompt, return_tensors="pt").to(peft_model.device)
# 使用 `.generate()` 方法生成回答,PEFT 模型会自动处理软提示的注入
print("正在生成回答...")
response_ids = peft_model.generate(**ipt, max_length=128, do_sample=True, top_k=50, top_p=0.95, temperature=0.7)
# 将生成的 token IDs 解码回文本
full_response = tokenizer.decode(response_ids[0], skip_special_tokens=True) # `skip_special_tokens=True` 会移除像 <|endoftext|> 这样的特殊标记
# 关注 "Assistant: " 后面的内容
assistant_response = full_response.split("Assistant: ")[-1]
print(f"\n模型生成的回复:\n{assistant_response}")
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-20
2025-04-01
2025-03-31
2025-03-20
2025-03-16
2025-03-16
2025-03-13
2025-03-13