【模型手术室】第四篇:全流程实战 —— 使用 LLaMA-Factory 开启你的第一个微调任务

专栏进度:04 / 10 (微调实战专题)
很多初学者卡在环境配置和复杂的 torch.train 逻辑上。LLaMA-Factory 的核心优势在于它集成了几乎所有主流国产模型(DeepSeek, Qwen, Yi)和海外模型(Llama 3, Mistral),并且原生支持 Gradio 可视化面板,让你在网页上点点鼠标就能“炼丹”。

一、 环境搭建:打造你的“炼丹炉”

为了保证训练不因版本冲突而崩溃,建议使用 Conda 进行物理隔离。

Bash

  1. 克隆项目

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory

  1. 安装核心依赖 (针对 CUDA 12.1 环境)

pip install -e .[metrics,bitsandbytes,qwen]

  1. 验证是否安装成功

llamafactory-cli version

二、 准备食材:注册你的“行业黑话”数据集

LLaMA-Factory 有一套自己的数据集管理逻辑。你需要把上一篇生成的 security_expert_data.jsonl 放入 data/ 目录,并在 data/dataset_info.json 中注册它。

注册示例:

JSON

“my_security_data”: {
“file_name”: “security_expert_data.jsonl”,
“columns”: {
“prompt”: “instruction”,
“query”: “input”,
“response”: “output”
}
}

三、 点火炼丹:WebUI 模式与脚本模式

  1. 初学者推荐:WebUI 模式
    在终端执行 llamafactory-cli webui。
    你会看到一个极其直观的界面。你需要设置:

模型名称:选择 DeepSeek-V3 或 Qwen2.5-7B。

微调方法:选择 lora。

数据集:勾选你刚刚注册的 my_security_data。

学习率:建议 5e-5。

计算精度:显存够选 bf16,不够选 fp16 或 int4。

  1. 高阶推荐:命令行模式 (CLI)
    一旦参数调优确定,建议使用脚本运行,更稳定且方便记录。

Bash

llamafactory-cli train
–stage sft
–do_train
–model_name_or_path /path/to/your/model
–dataset my_security_data
–template qwen
–finetuning_type lora
–output_dir ./saves/security_agent_v1
–per_device_train_batch_size 4
–gradient_accumulation_steps 4
–lr_scheduler_type cosine
–logging_steps 10
–save_steps 100
–learning_rate 5e-5
–num_train_epochs 3.0
–plot_loss
–fp16

四、 关键指标:如何看懂“炼丹炉”里的 Loss 曲线

在训练过程中,你会看到一个不断下降的 Loss(损失值) 曲线。

理想曲线:平稳下降,最后在某个数值(如 0.5 - 1.2 之间)开始横向震荡。

警报曲线:Loss 突然降到 0(过拟合,模型只会背书)或者 Loss 突然飙升(梯度爆炸,模型疯了)。

对策:如果 Loss 不降,调大 learning_rate;如果 Loss 波动太大,调小 learning_rate 并增大 batch_size。

五、 避坑指南:显存溢出的“救命稻草”

如果你运行报错 OutOfMemoryError:

开启量化:使用 --quantization_bit 4。

降低长度:将 --cutoff_len 从 1024 降到 512。

梯度检查点:确保开启了 --gradient_checkpointing。

Read more

Stable Diffusion一键部署神器:Docker容器化解决方案完全指南

Stable Diffusion一键部署神器:Docker容器化解决方案完全指南 【免费下载链接】stable-diffusion-webui-dockerEasy Docker setup for Stable Diffusion with user-friendly UI 项目地址: https://gitcode.com/gh_mirrors/st/stable-diffusion-webui-docker 还在为Stable Diffusion复杂的环境配置而头疼吗?stable-diffusion-webui-docker项目为你提供了完美的解决方案,通过Docker容器化技术实现零配置快速部署。本文将带你深入了解这一革命性工具的运作原理、使用方法以及高级定制技巧。 为什么选择Docker化部署? 传统Stable Diffusion安装流程需要面对诸多挑战: 安装方式主要问题解决方案手动安装依赖项冲突、环境配置复杂Docker隔离环境,避免依赖冲突脚本安装系统兼容性差、权限问题标准化容器,跨平台通用虚拟机部署资源消耗大、性能损失明显轻量级容器,接近原生性能

开源分享:AI Agent Skills 资源合集,一键安装 Cursor/Claude Code/Copilot 技能包

前言 最近在使用 Cursor 和 Claude Code 进行开发,发现 Agent Skills 这个功能非常强大——它可以让 AI 更专业地完成特定任务,比如代码审查、生成 Git Commit、自动生成测试用例等。 但网上的资源比较零散,于是我整理了一个开源合集分享给大家。 项目地址 GitHub:https://github.com/JackyST0/awesome-agent-skills 什么是 Agent Skills? Agent Skills 是 AI Agent 可以发现和使用的指令、脚本和资源包。 简单来说,就是给 AI 一套「技能说明书」,让它知道如何更专业地帮你完成工作。 比如: * 代码审查 Skill:AI 按照最佳实践审查代码,给出改进建议

「源力觉醒 创作者计划」_ ERNIE-4.5-0.3B:文心一言轻量级大模型的产业落地新范式

「源力觉醒 创作者计划」_ ERNIE-4.5-0.3B:文心一言轻量级大模型的产业落地新范式

「源力觉醒 创作者计划」_ ERNIE-4.5-0.3B:文心一言轻量级大模型的产业落地新范式 ERNIE-4.5-0.3B 作为百度文心一言 4.5 系列开源轻量模型,以 3 亿参数实现传统 10 亿参数模型能力。其融合知识增强与轻量化架构,分知识增强、推理架构、生态兼容三层,适配多硬件与框架。部署灵活,单卡显存低至 2.1GB,经工业场景、中文处理、工程计算测试,表现优异。通过知识缓存、动态路由等优化,可提升性能,为中小企业 AI 赋能提供高性价比方案,推动大模型轻量化落地。 👆 一起来轻松玩转文心大模型吧一文心大模型免费下载地址:https://ai.gitcode.com/paddlepaddle/ERNIE-4.5-VL-424B-A47B-Paddle 引言:轻量化部署的时代突围 ✨ 当行业还在为千亿参数模型的算力消耗争论不休时,百度文心一言4.

【踩坑记录-4】Rock 5+ RK3588运行mavsdk控制无人机 + 本地WSL运行PX4 + 本地Win运行QGC和控制界面

记录一下在板卡上代码的部署过程 1. 板卡环境搭建 板卡用的rock 5b+ rk3588,之后飞无人机的时候也是用3588飞。 2025/3/19 5bp断货了,用5t也一样,板卡大小重量都差不多,主要重量都在铝坨坨散热器上。 rock 5b+安装过程参考官方教程,建议完全按照官方教程来,国产板卡调试起来还是太炸裂了,还是怀念用orin nx和intel nuc的日子。 第一步:安装系统 安装系统到 MicroSD 卡 | Radxa Docs 我安装的是ROCK 5B+ 系统镜像: rock-5b-plus_bookworm_kde_b2,这个是6.1内核的debian12,和Ubuntu22.04差不多。然后按照教程把系统安装到nvme中。我装的时候Update SPI Bootloader的位置和教程里面的不一样,总之找找就找到了。 然后按照教程快速设置 | Radxa Docs配一下中文环境输入法,以及ssh和vnc。 我在使用过程中,