AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


XTuner 微调 Llama3
发布日期:2024-05-02 11:24:36 浏览次数: 1760



““[
{
"conversation": [
{
"system": "你是一个懂中文的小助手",
"input": "你是(请用中文回答)",
"output": "您好,我是SmartFlowAI,一个由 SmartFlowAI 打造的人工智能助手,请问有什么可以帮助您的吗?"
}
]
},
{
"conversation": [
{
"system": "你是一个懂中文的小助手",
"input": "你是(请用中文回答)",
"output": "您好,我是SmartFlowAI,一个由 SmartFlowAI 打造的人工智能助手,请问有什么可以帮助您的吗?"
}
]
}
]””

以上内容是一个 JSON 格式的数据结构,它包含了两个对象,每个对象中都有一个名为 "conversation" 的键,对应着一个包含对话信息的数组。

每个对话信息都是一个对象,包含三个键:"system"、"input" 和 "output"。

  • "system" 键表示对话信息的来源,可能是系统(即机器人)或者用户。

  • "input" 键表示用户输入的内容。

  • "output" 键表示系统(机器人)对用户输入的响应。

这段 JSON 数据的结构用于存储对话信息,可用于构建对话系统,记录用户和系统之间的交互。

“”xtuner train configs/assistant/llama3_8b_instruct_qlora_assistant.py --work-dir /root/llama3_pth

是一个命令行指令,用于启动一个名为 "xtuner" 的程序,并指定了一些参数。

  • "xtuner" 是要执行的程序的名称。

  • "train" 是 "xtuner" 程序的一个参数,指示程序执行训练任务。

  • "configs/assistant/llama3_8b_instruct_qlora_assistant.py" 是一个配置文件的路径,该文件用于指定模型的配置信息,包括模型的结构、超参数等。

  • "--work-dir" 是一个选项参数,用于指定工作目录,即模型训练过程中产生的文件(如日志、模型参数等)存放的位置。

  • "/root/llama3_pth" 是指定的工作目录的路径。

启动 "xtuner" 程序进行模型训练,使用指定的配置文件来配置模型,训练过程中的相关文件将保存在指定的工作目录中。

# Adapter PTH 转 HF 格式
xtuner convert pth_to_hf /root/llama3_pth/llama3_8b_instruct_qlora_assistant.py \
/root/llama3_pth/iter_500.pth \
/root/llama3_hf_adapter

# 模型合并
export MKL_SERVICE_FORCE_INTEL=1
xtuner convert merge /root/model/Meta-Llama-3-8B-Instruct \
/root/llama3_hf_adapter\
/root/llama3_hf_merged

Adapter PTH 转 HF 格式:

  • xtuner convert pth_to_hf: 这是一个命令行指令,表示要使用 "xtuner" 程序进行文件格式的转换,将 PyTorch 模型文件(.pth 格式)转换为 Hugging Face 模型文件(HF 格式)。

  • /root/llama3_pth/llama3_8b_instruct_qlora_assistant.py:是指定的 PyTorch 模型文件的路径。

  • /root/llama3_pth/iter_500.pth:是指定的 PyTorch 模型文件的权重文件路径。

  • /root/llama3_hf_adapter:是指定的转换后的 Hugging Face 模型文件的保存路径。

模型合并:

  • export MKL_SERVICE_FORCE_INTEL=1:这是一个环境变量设置,用于强制使用 Intel 的 MKL 服务。

  • xtuner convert merge:这是另一个 "xtuner" 程序的命令行指令,表示要进行模型合并操作。

  • /root/model/Meta-Llama-3-8B-Instruct:是指定要合并的第一个模型文件的路径。

  • /root/llama3_hf_adapter:是指定要合并的第二个模型文件的路径,这个路径是之前转换得到的 Hugging Face 模型文件的路径。

  • /root/llama3_hf_merged:是指定合并后的模型文件的保存路径。

用于将一个 PyTorch 模型文件转换为 Hugging Face 模型文件,并将其与另一个模型文件进行合并,最终得到一个新的模型文件。

streamlit run ~/Llama3-XTuner-CN/tools/internstudio_web_demo.py \
/root/llama3_hf_merged

启动 Streamlit 应用程序:

  • streamlit run:这是用于运行 Streamlit 应用程序的命令。

  • ~/Llama3-XTuner-CN/tools/internstudio_web_demo.py:是指定要运行的 Streamlit 应用程序的 Python 文件路径。

传递参数:

  • /root/llama3_hf_merged:这是通过命令行传递给 Streamlit 应用程序的参数。在这个上下文中,它可能是指定了一个模型文件或者其他必要的数据文件的路径。

使用 Streamlit 运行一个名为 "internstudio_web_demo.py" 的 Python 文件,并将 /root/llama3_hf_merged 作为参数传递给这个应用程序。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询