微信扫码
添加专属顾问
我要投稿
掌握高效微调大模型的秘诀,XTuner工具库助你一臂之力。 核心内容: 1. XTuner工具库的高效微调能力与灵活性 2. 支持大语言模型和多模态图文模型的预训练及微调 3. 从训练到部署的全流程支持和安装指南
在大模型时代,微调(Fine-tuning)是让预训练模型适应特定任务的关键步骤。然而,微调大模型通常需要大量的计算资源和复杂的配置,这让许多开发者望而却步。今天,我们将介绍一款高效、灵活且功能全面的微调工具库——XTuner,它能够帮助你在有限的资源下轻松微调大语言模型(LLM)和多模态图文模型(VLM)。
XTuner 是由 InternLM 团队推出的一款轻量化大模型微调工具库,支持大语言模型和多模态图文模型的预训练及轻量级微调。它不仅高效、灵活,还具备丰富的功能,能够满足多样化的微调需求。
高效:XTuner 仅需 8GB 显存即可微调 7B 模型,并支持多节点跨设备微调 70B+ 大模型。通过自动分发高性能算子(如 FlashAttention、Triton kernels 等)加速训练,并兼容 DeepSpeed,轻松应用 ZeRO 优化策略,提升训练效率。
灵活:XTuner 兼容多种主流大语言模型(如 InternLM、Llama 2、ChatGLM 等)和多模态图文模型 LLaVA,支持预训练与微调。其数据管道设计灵活,兼容任意数据格式,支持 QLoRA、LoRA 及全量参数微调等多种算法,满足多样化需求。
全能:XTuner 支持增量预训练、指令微调与 Agent 微调,提供丰富的开源对话模板,便于与模型交互。训练所得模型可无缝接入部署工具库 LMDeploy、评测工具库 OpenCompass 及 VLMEvalKit,实现从训练到部署的全流程支持。
XTuner 的安装非常简单,支持多种安装方式,满足不同用户的需求。
conda create --name xtuner-env python=3.10 -y
conda activate xtuner-env
pip install -U xtuner
# 集成 DeepSpeed 安装
pip install -U 'xtuner[deepspeed]'
git clone https://github.com/InternLM/xtuner.git
cd xtuner
pip install -e '.[all]'
CUDA_HOME does not exist, unable to compile CUDA op(s)
检查是否安装 nvidia-cuda-toolkit
,如果没有安装,可以使用以下命令安装:
conda install -c nvidia cuda-compiler
libGL.so.1: cannot open shared object file: No such file or directory
可以通过以下命令解决:
apt install libgl1-mesa-glx
XTuner 提供了丰富的功能,涵盖了从配置管理、模型微调到数据处理的全流程。以下是几个常用的操作示例:
xtuner list-cfg
xtuner copy-cfg $CONFIG $SAVE_FILE
xtuner train $CONFIG
NPROC_PER_NODE=$NGPUS NNODES=$NNODES NODE_RANK=$NODE_RANK PORT=$PORT ADDR=$ADDR xtuner dist_train $CONFIG $GPUS
将 .pth 模型转换为 Hugging Face 格式:
xtuner convert pth_to_hf $CONFIG $PATH_TO_PTH_MODEL $SAVE_PATH_TO_HF_MODEL
合并 Adapter 到预训练模型:
xtuner convert merge $LLM $ADAPTER $SAVE_PATH
使用 Hugging Face 模型与 Adapter 进行对话:
xtuner chat $LLM --adapter $ADAPTER --prompt-template $PROMPT_TEMPLATE --system-template $SYSTEM_TEMPLATE
使用 Hugging Face 模型与 LLaVA 进行视觉对话:
xtuner chat $LLM --llava $LLAVA --visual-encoder $VISUAL_ENCODER --image $IMAGE --prompt-template $PROMPT_TEMPLATE --system-template $SYSTEM_TEMPLATE
预处理 arxiv 数据集:
xtuner preprocess arxiv $SRC_FILE $DST_FILE --start-date $START_DATE --categories $CATEGORIES
预处理 refcoco 数据集:
xtuner preprocess refcoco --ann-path $RefCOCO_ANN_PATH --image-path $COCO_IMAGE_PATH --save-path $SAVE_PATH
XTuner 作为一款高效、灵活且功能全面的微调工具库,具有以下优势:
当然,XTuner 也有一些不足之处:
pip
安装,Docker 和 Kubernetes 的部署方式需要自行探索。总的来说,XTuner 是一款非常值得尝试的微调工具库,尤其适合资源有限但又需要高效微调大模型的开发者。如果你正在寻找一款轻量化、高效的微调工具,XTuner 无疑是一个不错的选择。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-25
DeepSeek + Dify 企业级大模型私有化部署指南
2025-04-24
自主构建MCP,轻松实现云端部署!
2025-04-24
大模型微调框架LLaMA-Factory
2025-04-23
Unsloth:提升 LLM 微调效率的革命性开源工具
2025-04-23
超越 DevOps?VibeOps 引领 AI 驱动的开发革命
2025-04-23
大模型想 “专精” 特定任务?这 3 种 Addition-Based 微调法别错过
2025-04-23
重参数化微调:揭秘LoRA家族让大模型训练成本暴降的方法
2025-04-23
为什么全参数微调能让大模型从“通才”变“专才”?
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-23
2025-04-20
2025-04-01
2025-03-31
2025-03-20
2025-03-16
2025-03-16
2025-03-13