AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


诗语灵伴——基于PaddleNLP构建的古诗对话数字人
发布日期:2024-09-25 21:02:46 浏览次数: 1572



项目介绍


诗语灵伴是使用GPT-sovits语音克隆PaddleNLP大模型套件技术、Live2D数字人技术,具有深厚中华诗词文化底蕴,可交互式读诗的数字人。
本项目主要使用PaddleNLP大模型套件微调古诗生成大模型。如果仅局限于大模型的对话,我感觉并不能很好体现出古诗的灵韵,所以本项目最后将大模型部署成了具象化的应用——数字人。


最终,我致力于打造一个能够与用户深入进行诗词交流的数字人,让传统诗词文化在现代科技的加持下迸发出新的活力。
技术流程
项目流程图 
根据上图,我们可以了解项目可以分为四个步骤:


1.数据处理:处理数据集,将其转换为符合要求的数据集格式。


2.微调模型:对基座模型进行Lora微调,得到微调后的模型。


3.推理:最后通过动态图对验证集推理查看结果,


4.部署:进行部署。


PaddleNLP支持的模型列表
技术要点


环境准备

PaddleNLP大模型套件是一个基于飞桨深度学习框架开发的自然语言处理(NLP)工具集。它提供了丰富的预训练模型和高级API,支持开发者构建各种自然语言处理应用。
Bash%cd ~!unzip PaddleNLP-develop.zip!pip install ./PaddleNLP-develop# !git clone https://github.com/PaddlePaddle/PaddleNLP.git
%cd ~!unzip PaddleSlim-develop.zip!cd ~/PaddleSlim-develop/csrc && python ./setup_cuda.py install && cd ~/PaddleSlim-develop && pip install .# !git clone https://github.com/PaddlePaddle/PaddleSlim.git
Python# 安装ERNIE Bot和tiktoken!pip install erniebot tiktoken
数据集准备
Plain Text本次使用的数据集都放在work文件夹里了,work文件夹目录如下:Poem ----> 放置了训练集和验证集。Poem_soul_Data.json ----> 源未处理格式数据集。lora_argument.json ----> Lora微调配置文件。poem_soul.json ----> 符合格式要求的数据集。
在已有数据的情况下,我们只需要将数据集的格式转换为PaddleNLP要求的数据格式。


将下面的数据格式转换:
JSON{"conversation": [{"system": "你是一个专业的古诗歌专家,你知道很多古诗。用户报上关键词后,你可以把包含关键词的古诗告诉用户","input": "根据绿苔这个关键词写一首古诗","output": "生成的古诗为:\n崖悬百尺古,\n面削一屏开。\n晴日流丹草,\n春风长绿苔。"}]}
转换为下面这种数据格式:
JSON{"src": ["根据绿苔这个关键词写一首古诗"], "tgt": ["生成的古诗为:\n崖悬百尺古,\n面削一屏开。\n晴日流丹草,\n春风长绿苔。"],"context": {"system": "你是一个专业的古诗歌专家,你知道很多古诗。用户报上关键词后,你可以把包含关键词的古诗告诉用户"}}
字典中字段的解释:


这里官方要求的只有src、tgt,这里多了context是没有影响的。


src : str, List(str), 模型的输入指令(instruction)、提示(prompt),模型应该执行的任务。


tgt : str, List(str), 模型的输出。


源数据集我已经放在work文件夹里面,大家只需运行下面的这段代码即可将数据集转换为我们所需要的数据格式。


Python# 格式转换import jsonPoem_soul_Data = []with open('/home/aistudio/work/Poem_soul_Data.json', 'r') as f:data = json.load(f)
for data_item in data:src = []tgt = [] for j in data_item['conversation']:src.append(j['input'])tgt.append(j['output'])print(j['input'])print(j['output'])assert len(src) == len(tgt)Poem_soul_Data.append({'src':src, 'tgt':tgt, "context": {"system": f"{data_item['conversation'][0]['system']}"}})
with open('/home/aistudio/work/poem_soul.json', 'w', encoding='utf-8') as f:for item in Poem_soul_Data:json.dump(item, f, ensure_ascii=False)f.write('\n')
对转换好的数据分割和打乱,生成微调需要的train.json和dev.json文件。


train.json:用于Lora微调。


dev.json:用于后续动态图推理测试使用。


Python%cd ~
# 对古诗进行8:2数据划分import jsonimport randomimport os
# 定义文件路径file_path = 'work/Poem/'input_files = ['/home/aistudio/work/poem_soul.json']train_output_file = os.path.join(file_path,'train.json')dev_output_file = os.path.join(file_path,'dev.json')

directory = os.path.dirname(file_path)if not os.path.exists(directory):os.makedirs(directory)print(f'目录 {directory} 已创建')else:print(f'目录 {directory} 已存在')
train_data = []dev_data = []
for json_file in input_files:with open(json_file, 'r', encoding='utf-8') as f:lines = f.readlines()data = [json.loads(line) for line in lines]random.shuffle(data)split_index = int(0.8 * len(data))train_data += data[:split_index]dev_data += data[split_index:]
random.shuffle(train_data)random.shuffle(dev_data)

# 将数据保存到train.json和dev.jsonwith open(train_output_file, 'w', encoding='utf-8') as f:for item in train_data:f.write(json.dumps(item, ensure_ascii=False) + '\n')
with open(dev_output_file, 'w', encoding='utf-8') as f:for item in dev_data:f.write(json.dumps(item, ensure_ascii=False) + '\n')
print(f"训练数据保存在 {train_output_file}")print(f"测试数据保存在 {dev_output_file}")

微调

Lora配置文件准备:


Python#查看lora配置文件 记得修改配置文件中的"dataset_name_or_path"%cat ~/work/lora_argument.json
Bash# 修改配置文件中的"dataset_name_or_path",运行下述代码直接将其相应配置写入。%%writefile ~/work/lora_argument.json {"model_name_or_path": "THUDM/chatglm2-6b","dataset_name_or_path": "/home/aistudio/work/Poem","output_dir": "./checkpoints/lora_ckpts","per_device_train_batch_size": 4,"gradient_accumulation_steps": 4,"per_device_eval_batch_size": 8,"eval_accumulation_steps":16,"num_train_epochs": 3,"learning_rate": 3e-04,"warmup_steps": 30,"logging_steps": 1,"evaluation_strategy": "epoch","save_strategy": "epoch","src_length": 1024,"max_length": 2048,"fp16": true,"fp16_opt_level": "O2","do_train": true,"do_eval": true,"disable_tqdm": false,"load_best_model_at_end": true,"eval_with_do_generation": false,"metric_for_best_model": "accuracy","recompute": true,"save_total_limit": 1,"tensor_parallel_degree": 1,"pipeline_parallel_degree": 1,"lora": true,"zero_padding": false,"unified_checkpoint": true,"use_flash_attention": false}


开始微调:


Python%cd /home/aistudio/PaddleNLP-develop/llm!python run_finetune.py /home/aistudio/work/lora_argument.json
Lora合并:
一定要开V100的32G显存的环境,不然合并后的文件不完整但也不报错,看不出来,尝试了好多次才发现。
Python%cd ~/PaddleNLP-develop/llm/tools
!python merge_lora_params.py \--model_name_or_path THUDM/chatglm2-6b \--lora_path /home/aistudio/PaddleNLP-develop/llm/checkpoints/lora_ckpts \--output_path ~/data/checkpoints/chatglm2_lora_merge \--device "gpu" \--safe_serialization True
# 脚本参数介绍# lora_path: Lora参数和配置路径,对Lora参数进行初始化,默认为None。# model_name_or_path: 必须,主干模型参数路径,默认为None。# merge_model_path: 必须,合并参数后保存路径,默认为None。# device: 运行环境,默认为gpu。# safe_serialization: 是否保存为safetensor格式,默认为True。

推理

进行推理的时候会报错,可以使用PaddlePaddle-GPU的开发版本解决。


Python!pip uninstall paddlepaddle-gpu!python -m pip install paddlepaddle-gpu==0.0.0.post118 -f https://www.paddlepaddle.org.cn/whl/linux/gpu/develop.html
下面进行动态图推理。由于新版本官方架构进行了调整,文件之间各种库的衔接还有问题,可以把predict文件夹中的predictor.py文件复制到llm文件夹下解决。
Python# 动态图推理%cd ~/PaddleNLP-develop/llm
!cp /home/aistudio/PaddleNLP-develop/llm/predict/predictor.py /home/aistudio/PaddleNLP-develop/llm
!python predictor.py \--model_name_or_path THUDM/chatglm2-6b \ # 此处放置lora_argument.json配置文件中的model_name_or_path--lora_path /home/aistudio/PaddleNLP-develop/llm/checkpoints/lora_ckpts/checkpoint-11250 \--data_file /home/aistudio/work/Poem/dev.json \--dtype float16
Python# 静态图导出%cd ~/PaddleNLP-develop/llm!python export_model.py \--model_name_or_path THUDM/chatglm2-6b \--output_path /home/aistudio/data/static_inference_model_chatglm2 \--lora_path /home/aistudio/PaddleNLP-develop/llm/checkpoints/lora_ckpts/checkpoint-11250 \--dtype float16
Python# 静态图推理%cd ~/PaddleNLP-develop/llm
!python predictor.py \--model_name_or_path /home/aistudio/data/static_inference_model_chatglm2 \--data_file ~/work/Poem/dev.json \--dtype float16 \--mode static
动态图推理的运行结果示例。


Python[2024-08-06 12:56:51,087] [INFO] - Start predict[2024-08-06 12:56:51,087] [ WARNING] - The last conversation is not a single-round, chat-template will skip the conversation: ('生成的古诗为:\n星榆叶叶昼离披,\n云粉千重凝不飞。\n昆玉楼台珠树密,\n夜来谁向月中归。',)[2024-08-06 12:56:56,471] [INFO] - End predict***********Source**********[('根据楼台这个关键词写一首古诗', '生成的古诗为:\n星榆叶叶昼离披,\n云粉千重凝不飞。\n昆玉楼台珠树密,\n夜来谁向月中归。')]***********Target*********************Output**********生成的古诗为:寂寂随缘止,年年归去来。山阴湖上雪,疑是旧楼台。
[2024-08-06 12:46:38,954] [INFO] - Start predict[2024-08-06 12:46:38,954] [ WARNING] - The last conversation is not a single-round, chat-template will skip the conversation: ('生成的古诗为:\n只说梅花似雪飞,\n朱颜谁信暗香随。\n不须添上徐熙画,\n付与西湖别赋诗。',)[2024-08-06 12:46:45,444] [INFO] - End predict***********Source**********[('根据朱颜这个关键词写一首古诗', '生成的古诗为:\n只说梅花似雪飞,\n朱颜谁信暗香随。\n不须添上徐熙画,\n付与西湖别赋诗。')]***********Target**********
***********Output**********生成的古诗为:一枝半落半还开,病酒消愁只自杯。莫怪朱颜消得尽,暗香疏影两三栽。

数字人部署

本项目后端部分代码在项目的主目录中的hutao.zip中 。 
项目链接:


https://aistudio.baidu.com/projectdetail/8222052?contributionType=1&sUid=2945966&shared=1&ts=1724741568182


hutao.zip里面的目录及功能如下图,主要包括数字人、语音克隆、大语言模型等部分:
Game文件夹主要介绍了数字人运行的配资后文件等,game文件夹的用法可以详见下图,可以观看教程了解 game 代码使用方式。切记打开客户端前,后端服务要先开启。
客户端Ren'Py界面
可参考使用教程:https://www.bilibili.com/video/BV19y4y1e7UV/
llm.py代码:
Python#-*- coding:utf-8 -*-from paddlenlp.transformers import AutoModelForCausalLM, AutoTokenizer
class Hutaos(object):def __init__(self):# load modelself.model_path = r"/home/aistudio/PaddleNLP/llm/checkpoints/llama_lora_merge"# "/root/gushi2/merged"self.model = AutoModelForCausalLM.from_pretrained(self.model_path)self.tokenizer = AutoTokenizer.from_pretrained(self.model_path)def answer(self,questions):# query = input() #"根据明月这个关键词给我生成一个古诗"input_features = self.tokenizer("{}".format(questions), return_tensors="pd")outputs = self.model.generate(**input_features, max_length=128)response = tokenizer.batch_decode(outputs[0])return response
llms = Hutaos()def get_answer(question):answer = llms.answer(question)return answer
if __name__ == "__main__":print(get_answer("根据孤影这个关键字给我生成一首古诗"))
语音克隆:


大家可以使开源项目进行语音克隆api生成,非常方便。我这里采用的是vits-simple-api,该项目官方还提供整合包,管理语音克隆和调用极其方便,大家可以参考使用。


vits-simple-api项目链接:https://github.com/Artrajz/vits-simple-api
效果展示
效果图
 效果图gif
效果视频链接:


https://www.bilibili.com/video/BV1uS421w72U/?share_source=copy_web&vd_source=124e91ee22ef9d114174eb947ac6159b


总结

本项目的创意灵感根植于日常的点滴生活,并受到近年来AIGC技术飞速发展所带来的变革性影响的启迪。有人说人工智能会替代人类,但当我在武侠城看到两千年前的打铁花的重现,看到那令人震撼的马术表演,还有前段时间的AI复活亲人,旧照片的修复等等,令人激动又难以平复。用AIGC技术赋予传统文化新的活力,以一种新的方式让更多的青少年接受和享受传统文化的美,这正是我们前进的方向与目标。













































53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询