微信扫码
添加专属顾问
我要投稿
掌握高效微调大模型的秘诀,XTuner工具库助你一臂之力。 核心内容: 1. XTuner工具库的高效微调能力与灵活性 2. 支持大语言模型和多模态图文模型的预训练及微调 3. 从训练到部署的全流程支持和安装指南
在大模型时代,微调(Fine-tuning)是让预训练模型适应特定任务的关键步骤。然而,微调大模型通常需要大量的计算资源和复杂的配置,这让许多开发者望而却步。今天,我们将介绍一款高效、灵活且功能全面的微调工具库——XTuner,它能够帮助你在有限的资源下轻松微调大语言模型(LLM)和多模态图文模型(VLM)。
XTuner 是由 InternLM 团队推出的一款轻量化大模型微调工具库,支持大语言模型和多模态图文模型的预训练及轻量级微调。它不仅高效、灵活,还具备丰富的功能,能够满足多样化的微调需求。
高效:XTuner 仅需 8GB 显存即可微调 7B 模型,并支持多节点跨设备微调 70B+ 大模型。通过自动分发高性能算子(如 FlashAttention、Triton kernels 等)加速训练,并兼容 DeepSpeed,轻松应用 ZeRO 优化策略,提升训练效率。
灵活:XTuner 兼容多种主流大语言模型(如 InternLM、Llama 2、ChatGLM 等)和多模态图文模型 LLaVA,支持预训练与微调。其数据管道设计灵活,兼容任意数据格式,支持 QLoRA、LoRA 及全量参数微调等多种算法,满足多样化需求。
全能:XTuner 支持增量预训练、指令微调与 Agent 微调,提供丰富的开源对话模板,便于与模型交互。训练所得模型可无缝接入部署工具库 LMDeploy、评测工具库 OpenCompass 及 VLMEvalKit,实现从训练到部署的全流程支持。
XTuner 的安装非常简单,支持多种安装方式,满足不同用户的需求。
conda create --name xtuner-env python=3.10 -y
conda activate xtuner-env
pip install -U xtuner
# 集成 DeepSpeed 安装
pip install -U 'xtuner[deepspeed]'
git clone https://github.com/InternLM/xtuner.git
cd xtuner
pip install -e '.[all]'
CUDA_HOME does not exist, unable to compile CUDA op(s)
检查是否安装 nvidia-cuda-toolkit
,如果没有安装,可以使用以下命令安装:
conda install -c nvidia cuda-compiler
libGL.so.1: cannot open shared object file: No such file or directory
可以通过以下命令解决:
apt install libgl1-mesa-glx
XTuner 提供了丰富的功能,涵盖了从配置管理、模型微调到数据处理的全流程。以下是几个常用的操作示例:
xtuner list-cfg
xtuner copy-cfg $CONFIG $SAVE_FILE
xtuner train $CONFIG
NPROC_PER_NODE=$NGPUS NNODES=$NNODES NODE_RANK=$NODE_RANK PORT=$PORT ADDR=$ADDR xtuner dist_train $CONFIG $GPUS
将 .pth 模型转换为 Hugging Face 格式:
xtuner convert pth_to_hf $CONFIG $PATH_TO_PTH_MODEL $SAVE_PATH_TO_HF_MODEL
合并 Adapter 到预训练模型:
xtuner convert merge $LLM $ADAPTER $SAVE_PATH
使用 Hugging Face 模型与 Adapter 进行对话:
xtuner chat $LLM --adapter $ADAPTER --prompt-template $PROMPT_TEMPLATE --system-template $SYSTEM_TEMPLATE
使用 Hugging Face 模型与 LLaVA 进行视觉对话:
xtuner chat $LLM --llava $LLAVA --visual-encoder $VISUAL_ENCODER --image $IMAGE --prompt-template $PROMPT_TEMPLATE --system-template $SYSTEM_TEMPLATE
预处理 arxiv 数据集:
xtuner preprocess arxiv $SRC_FILE $DST_FILE --start-date $START_DATE --categories $CATEGORIES
预处理 refcoco 数据集:
xtuner preprocess refcoco --ann-path $RefCOCO_ANN_PATH --image-path $COCO_IMAGE_PATH --save-path $SAVE_PATH
XTuner 作为一款高效、灵活且功能全面的微调工具库,具有以下优势:
当然,XTuner 也有一些不足之处:
pip
安装,Docker 和 Kubernetes 的部署方式需要自行探索。总的来说,XTuner 是一款非常值得尝试的微调工具库,尤其适合资源有限但又需要高效微调大模型的开发者。如果你正在寻找一款轻量化、高效的微调工具,XTuner 无疑是一个不错的选择。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-15
单卡复现 DeepSeek R1 Zero教程来了!
2025-02-15
申请API-KEY,通过接口使用DeepSeek服务
2025-02-15
DeepSeek零门槛三步极速部署指南,注册秒过,对话零延迟!
2025-02-15
大模型应用部署过程中流量管控的常见需求和应对方案
2025-02-15
AI应用开发先了解这些概念:智能体、LLM、RAG、提示词工程
2025-02-15
腾讯云TI平台和HAI部署DeepSeek的步骤及其区别
2025-02-15
Chain-of-Action (行动链):从Agent工作流到Agent模型
2025-02-14
使用 Apache Dubbo 释放 DeepSeek R1 的全部潜力
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-11
2024-07-26
2024-07-09
2025-01-27
2024-12-29
2025-02-01
2025-02-10
2025-02-10
2025-02-09
2025-02-05
2025-01-24
2025-01-22
2025-01-14
2025-01-12