基于 Qwen2.5 与 LLaMA-Factory 的 LoRA 微调实战
介绍在 Windows 单卡 8G 显存环境下,使用 LLaMA-Factory 框架对 Qwen2.5-1.5B 模型进行 LoRA 微调的完整流程。涵盖数据集准备与人设注入、基座模型下载、环境配置、训练参数设置、模型验证及通过 Ollama 本地部署测试。教程提供自动化脚本与手动操作指南,帮助开发者构建专属 AI 助手。

介绍在 Windows 单卡 8G 显存环境下,使用 LLaMA-Factory 框架对 Qwen2.5-1.5B 模型进行 LoRA 微调的完整流程。涵盖数据集准备与人设注入、基座模型下载、环境配置、训练参数设置、模型验证及通过 Ollama 本地部署测试。教程提供自动化脚本与手动操作指南,帮助开发者构建专属 AI 助手。

本文将详细介绍如何在 Windows 环境下(单卡 8G 显存),利用 LLaMA-Factory 框架对 Qwen2.5-1.5B 模型进行 LoRA 微调,并通过 Ollama 实现本地部署。
⚠️ 实验环境警告 本教程涉及 PyTorch、ModelScope 及 LLaMA-Factory 等多个深度学习框架,依赖关系较为复杂。为了避免污染您的系统 Python 环境或引发版本冲突,强烈建议在 Anaconda / Miniconda 虚拟环境中进行本实验。
微调的第一步是获取原始指令数据。本项目通过两种方式获取数据,并利用 Python 脚本进行人设注入,将通用数据转化为 Elaine 的专属训练语料。
alpaca_zh.json,手动点击下载按钮。D:\Code\LoRA\yuki_identity_sft\ 目录下。使用 modelscope 库自动获取数据集,适合自动化工作流:
def download_dataset():
# 获取当前工作目录
current_dir = os.getcwd()
# 建议下载到一个专门的子目录中,例如 'dataset'
target_dir = os.path.join(current_dir, 'yuki_identity_sft')
if not os.path.exists(target_dir):
os.makedirs(target_dir)
print(f"正在下载数据集到:{target_dir}")
# 使用 subprocess 调用 modelscope 命令,并指定 --local_dir 为目标子目录
result = subprocess.run(['modelscope', 'download', '--dataset', 'DanKe123abc/yuki_identity_sft', '--local_dir', target_dir], capture_output=True, text=True)
下载完成后,必须运行预处理脚本。该脚本会遍历所有对话条目,将原有的助手名称(如'通义千问'、'机器人')及开发商(如'阿里巴巴')替换为 Elaine 和 DanKe。
核心预处理脚本 (preprocess.py):
def finalize_elaine_dataset(target_dir, old_name="yuki", new_name="elaine"):
# 路径定义
old_jsonl = os.path.join(target_dir, f"{old_name}_identity_sft.jsonl")
new_jsonl = os.path.join(target_dir, f"{new_name}_identity_sft.jsonl")
info_file = os.path.join(target_dir, "dataset_infos.json")
# --- 1. 处理 JSONL 数据内容 ---
if os.path.exists(old_jsonl):
print(f"正在处理数据内容...")
with open(old_jsonl, 'r', encoding='utf-8') as f_in, \
open(new_jsonl, 'w', encoding='utf-8') as f_out:
for line in f_in:
# 替换名字(处理首字母大写和全小写)
updated_line = line.replace(old_name.capitalize(), new_name.capitalize())
updated_line = updated_line.replace(old_name.lower(), new_name.lower())
f_out.write(updated_line)
os.remove(old_jsonl) # 删除旧的 jsonl
print(f"已生成 {new_jsonl} 并删除原文件。")
在 LLaMA-Factory/data/dataset_info.json 中添加配置,使工具能够识别处理后的新数据:
最终完整内容如下
{"default":{"features":{"conversations":{"_type":"Value"}},"splits":{"train":{"name":"train","dataset_name":"elaine_identity_sft"}}}}
本项目采用 Qwen2.5-1.5B-Instruct 作为基座模型。该模型在参数规模与推理性能之间取得了极佳平衡,不仅能以较低资源损耗(8G 显存环境)实现流畅运行,更在中文指令遵循与逻辑推理方面展现出卓越性能。
Qwen2.5-1.5B-Instructqwen/Qwen2.5-1.5B-InstructD:\Code\LoRA\models\Qwen2.5-1.5B-Instruct\qwen\Qwen2___5-1___5B-Instruct使用 Python 脚本可以确保模型文件的完整性,并能自动处理断点续传。这种方式最适合开发者环境。
pip install modelscope
download_model.py):def download_qwen_model():
model_id = 'qwen/Qwen2.5-1.5B-Instruct' # 指定下载到的本地目录
local_dir = './models/Qwen2.5-1.5B-Instruct'
if not os.path.exists(local_dir):
os.makedirs(local_dir)
print(f"正在开始下载模型 {model_id} 到 {local_dir}...")
# 执行下载
model_dir = snapshot_download(model_id, cache_dir=local_dir)
print(f"\n模型下载成功!")
print(f"模型存储路径:{os.path.abspath(model_dir)}")
适合无法使用 Python 环境或需要使用第三方下载工具(如迅雷、IDM)的场景。
model.safetensors)旁的下载图标。config.json 位于该文件夹的根目录下。在准备好数据集和基座模型后,我们需要部署微调的核心工具 —— LLaMA-Factory。
LLaMA-Factory 是目前大模型社区最受欢迎的微调框架之一。它具有以下核心优势:
bitsandbytes 和 PEFT 技术,使得在普通的消费级显卡(如 RTX 3060/4060)上微调 7B 甚至更大型号的模型成为可能。为了确保环境纯净,建议在 Anaconda 虚拟环境中执行以下操作:
从 GitHub 获取最新版本的工具包:
cd D:\Code\LoRA
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
LLaMA-Factory 采用了模块化安装。由于我们要微调 Qwen 模型并使用量化技术,需要安装特定的附加包:
# 安装基础包及常用库(metrics 计算、bitsandbytes 量化、qwen 模型支持)
pip install -e .[metrics,bitsandbytes,qwen]
# 针对 Windows 环境,通常还需要额外安装以下库以确保加速正常
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
运行以下命令查看版本,若无报错则说明工具下载及环境搭建成功:
llamafactory-cli version
为了让 LLaMA-Factory 能够识别我们预处理好的'Elaine'数据集并正确调用基座模型,我们需要完成以下两个核心配置动作。
动作: 在 LLaMA-Factory/data 目录下,我们需要确保处理后的 JSON 文件被正确注册。
elaine_sft_data.json 已放入 D:\Code\LoRA\LLaMA-Factory\data\ 文件夹。dataset_info.json:这是 LLaMA-Factory 的数据索引表。你需要打开该文件,在最外层的大括号内添加一段关于 Elaine 的描述:{"elaine_identity":{"file_name":"D:/Code/LoRA/yuki_identity_sft/elaine_identity_sft.jsonl","formatting":"sharegpt","columns":{"messages":"conversations"},"tags":{"role_tag":"role","content_tag":"content","user_tag":"user","assistant_tag":"assistant"}},"...":"(原有其他数据集配置)"}
file_name 必须与你实际的文件名完全一致。动作: 我们需要创建一个专属于 Elaine 的训练配置(通常是 YAML 格式),或者通过 WebUI 生成配置后进行手动微调。这里我们以创建一个 elaine_lora.yaml 配置文件为例:
在 LLaMA-Factory 目录下修改/创建训练脚本:
### 模型路径 (已修正为深层路径)
model_name_or_path: D:\Code\LoRA\models\Qwen2.5-1.5B-Instruct\qwen\Qwen2___5-1___5B-Instruct
### 训练阶段
stage: sft
do_train:true
finetuning_type: lora
lora_target: all
### 数据集配置
dataset: elaine_identity
template: qwen
cutoff_len:1024
max_samples:1000
overwrite_cache:true
### 输出路径
output_dir: saves/elaine_lora_sft
logging_steps:5
save_steps:100
plot_loss:true
overwrite_output_dir:true
### 8G 显存专用参数
per_device_train_batch_size:1
gradient_accumulation_steps:8
learning_rate:1.0e-4
num_train_epochs:10.0
fp16:true
quantization_bit:4
upcast_layernorm:true
# 建议添加:提高量化精度并防止溢出
dataset_info.json 中给你的新数据'上户口',没有这一步,工具找不到你的 JSON。model_name_or_path)和输出路径(output_dir)。尤其是路径中若包含斜杠或特殊字符,需仔细核对。在配置文件(.yaml 或 dataset_info.json)准备就绪后,即可进入真正的模型炼制阶段。
打开 PowerShell,激活环境并进入 LLaMA-Factory 目录,执行以下命令:
# 设置环境变量防止 OpenMP 冲突报错
$env:KMP_DUPLICATE_LIB_OK="TRUE"
# 启动微调
llamafactory-cli train elaine_lora.yaml
在训练过程中,你需要重点关注控制台输出的以下信息:
nvidia-smi),4-bit 模式下占用应保持在较低水平。训练完成后,系统会自动在 D:\Code\LoRA\LLaMA-Factory\saves\elaine_lora_sft 目录下生成一系列文件。
其中最重要的是:
adapter_model.safetensors:这是训练出来的'灵魂',即 LoRA 增量权重。adapter_config.json:LoRA 的配置信息。training_loss.png:系统自动绘制的 Loss 下降曲线图,方便你回顾训练是否健康。微调完成后,必须进行即时验证以确保模型成功习得目标人设。在本项目中,验证可以通过以下两种方式进行:
LLaMA-Factory 提供了一个直观的 Web 界面进行推理测试。
Chat 标签页中,选择微调后的 Checkpoint 路径,点击 Load Model 后即可对话。由于本地环境对 WebUI 支持不佳,本项目编写了名为 elaine.py 的专用测试脚本。该脚本直接调用 llamafactory.chat 接口,具有加载速度快、支持流式输出、避开 GUI 报错等优点。
核心测试脚本 (elaine_test.py):
def start_chat():
args = {
"model_name_or_path": r"D:\Code\LoRA\models\Qwen2.5-1.5B-Instruct\qwen\Qwen2___5-1___5B-Instruct",
"adapter_name_or_path": r"D:\Code\LoRA\LLaMA-Factory\saves\elaine_lora_sft",
"template": "qwen",
"finetuning_type": "lora",
"quantization_bit": 4,
}
chat_model = ChatModel(args)
print("\n--- Elaine 已上线 (输入 'quit' 退出) ---")
在脚本运行期间,通过以下对话确认微调质量:
验证对话:
我: 你是谁? Elaine: 我是由 DanKe 开发的人工智能助手 Elaine。
为了让 Elaine 能够脱离开发环境、在各种应用(如本地大模型客户端、移动端等)中'独立行走',我们需要执行合并导出与 Ollama 注册。
LoRA 微调产生的只是增量权重。通过 LLaMA-Factory 的导出功能,我们将 LoRA 权重注入到基座模型中,生成一个完整、独立、可以直接加载的模型文件夹。
操作命令:
llamafactory-cli export \
--model_name_or_path D:\Code\LoRA\models\Qwen2.5-1.5B-Instruct\qwen\Qwen2___5-1___5B-Instruct \
--adapter_name_or_path D:\Code\LoRA\LLaMA-Factory\saves\elaine_lora_sft \
--template qwen \
--finetuning_type lora \
--export_dir D:\Code\LoRA\models\Elaine_Final_Model \
--export_size 2 \
--export_device cpu \
--export_legacy_format false
--export_dir:指定合并后新模型的存放位置。--export_size 2:将模型切分为 2GB 左右的分片,方便存储和传输。--export_device cpu:导出过程仅涉及权重求和,使用 CPU 即可,不占用显存。导出成功后,Elaine_Final_Model 文件夹中会自动生成一个 Modelfile。这是针对 Ollama 优化的'出生证明'。
操作步骤:
cd D:\Code\LoRA\models\Elaine_Final_Model
ollama create Elaine -f Modelfile
ollama run Elaine
至此,Elaine 已经成为了你电脑里的一个系统级服务。你可以通过以下方式验证她的'自由身':
Elaine 模型进行对话。Elaine_Final_Model 文件夹拷贝到任何安装了 Ollama 的电脑上,重复上述 create 步骤,无需再次安装 LLaMA-Factory 或复杂的 Python 依赖。
微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online