如何在Llama-Factory中自定义损失函数?高级用法指南

如何在 Llama-Factory 中自定义损失函数?高级用法指南

在大模型微调日益普及的今天,越来越多的实际任务开始暴露出标准训练流程的局限性。比如,你在训练一个金融客服机器人时发现,尽管整体准确率不错,但模型总是“忽略”那些关键却少见的问题——像“账户被冻结怎么办”这类高风险咨询,出现频率低、样本少,结果在交叉熵损失主导下被梯度淹没。这时候,你真正需要的不是更多数据,而是一种能表达业务优先级的损失函数

这正是 Llama-Factory 作为现代微调框架的价值所在:它不仅让你“跑得起来”,更允许你深入到底层训练逻辑,把领域知识、工程经验甚至产品目标,编码进模型的学习过程中。其中最关键的入口之一,就是自定义损失函数


Llama-Factory 基于 Hugging Face Transformers 构建,底层使用 PyTorch,其训练流程遵循典型的因果语言建模范式。默认情况下,Trainer 类会调用内置的 CrossEntropyLoss 来计算 token 级别的预测误差。这个过程看似固定,实则留出了清晰的扩展点——只要你重写 compute_loss 方法,就能完全接管损失计算逻辑。

这种设计并非偶然。它的核心思想是:训练引擎负责调度和优化,而损失函数定义“什么是对的”。 换句话说,框架管“怎么学”,你来决定“学成什么样”。

举个例子,标签平滑(Label Smoothing)是一种常见的正则化技术,用于防止模型对训练标签过度自信。虽然 Hugging Face 的 Trainer 支持通过参数启用,但在某些场景下你需要更细粒度的控制,比如动态调整平滑强度或结合其他监督信号。这时,直接定制 compute_loss 就成了最灵活的选择。

import torch import torch.nn as nn from transformers import Trainer class CustomTrainer(Trainer): def __init__(self, label_smoothing=0.0, **kwargs): super().__init__(**kwargs) self.label_smoothing = label_smoothing self.ce_loss = nn.CrossEntropyLoss(reduction="none") def compute_loss(self, model, inputs, return_outputs=False): labels = inputs.get("labels") outputs = model(**inputs) logits = outputs.get("logits") # Shift for causal language modeling shift_logits = logits[..., :-1, :].contiguous() shift_labels = labels[..., 1:].contiguous() flat_logits = shift_logits.view(-1, shift_logits.size(-1)) flat_labels = shift_labels.view(-1) if self.label_smoothing > 0: vocab_size = flat_logits.shape[-1] with torch.no_grad(): true_probs = torch.full_like(flat_logits, self.label_smoothing / (vocab_size - 1)) true_probs.scatter_(1, flat_labels.unsqueeze(1), 1 - self.label_smoothing) log_probs = torch.log_softmax(flat_logits, dim=-1) loss = -(true_probs * log_probs).sum(dim=-1).mean() else: loss = self.ce_loss(flat_logits, flat_labels).mean() return (loss, outputs) if return_outputs else loss 

这段代码的关键在于,它没有改动任何训练流程,只是替换了损失计算部分。你可以把它看作一个“插槽”——只要返回的是标量 loss,PyTorch 就能自动完成反向传播。这意味着你的自定义逻辑可以非常复杂,比如引入对比学习项、KL 散度约束,甚至是基于外部奖励的强化学习目标。

更重要的是,Llama-Factory 提供了配置驱动的加载机制。你不需要修改主程序,只需将上述类保存为 trainers/custom_trainer.py,然后在 YAML 配置中声明:

trainer_type: custom custom_trainer_path: ./trainers/custom_trainer.py label_smoothing: 0.1 

框架会在初始化时动态导入并实例化你的 CustomTrainer,自动注入所有配置参数。这种插件式架构让实验迭代变得极其高效:换损失就像换电池一样简单。

但别忘了,灵活性也意味着责任。当你跳出默认路径时,有几个坑必须警惕。

首先是梯度稳定性。如果你在损失中加入了复杂的数学运算,比如除法、对数或指数操作,稍不注意就会导致 NaN 或梯度爆炸。建议始终用 torch.clamp 对输入做裁剪,并在调试阶段开启 torch.autograd.set_detect_anomaly(True) 来捕捉异常源头。

其次是分布式训练兼容性。在多 GPU 场景下,每个设备只看到一部分 batch。如果你在损失中做了全局归一化或统计量计算(如均值、方差),必须确保这些值是在所有设备上同步聚合过的。否则,梯度更新会不一致。好在 Llama-Factory 默认使用 DistributedDataParallel,你可以借助 torch.distributed.all_reduce 手动同步张量,或者干脆避免跨设备依赖。

再来看内存效率。长序列任务中,一次性展开所有 token 的 logits 和 labels 可能占用巨大显存。例如,一个 batch size 为 8、序列长度为 8192 的输入,展平后的形状是 (8*8192, vocab_size),对于 32K 词表来说就是近 2GB 的中间张量。解决办法是分块计算或使用 reduction='none' 后按需降维,而不是盲目 .mean()

还有一个常被忽视的点是日志可解释性。当你加了权重、平滑或多个损失项时,最终的 loss 值已经不能直接和原始交叉熵比较了。建议在训练日志中同时输出原始 loss 和加权后的 total loss,方便分析收敛行为。Llama-Factory 支持 TensorBoard,你可以轻松记录这些辅助指标:

if self.args.local_rank == 0: # 主进程记录 self.log({"base_loss": base_loss.item(), "weighted_loss": weighted_loss.item()}) 

说到实际应用,我们再回到那个金融客服的例子。假设你有一组标注好的问题类别,其中“退款政策”、“账户安全”等属于高优先级。与其靠数据过采样来提升曝光,不如直接在损失层面赋予它们更高权重:

def compute_loss(self, model, inputs): labels = inputs["labels"] category_ids = inputs.get("category_id", None) outputs = model(**inputs) logits = outputs["logits"] shift_logits = logits[..., :-1, :].contiguous() shift_labels = labels[..., 1:].contiguous() loss_per_token = self.ce_loss(shift_logits.view(-1, shift_logits.size(-1)), shift_labels.view(-1)) # Reshape to [batch_size, seq_len] and average over sequence loss_per_sample = loss_per_token.view(labels.size(0), -1).mean(dim=1) if category_ids is not None: class_weights = { 0: 1.0, # login_issue 1: 5.0, # refund_policy 2: 8.0, # account_frozen 3: 1.5 # feature_request } weights = torch.tensor([class_weights[cid.item()] for cid in category_ids], device=loss_per_sample.device) loss_per_sample = loss_per_sample * weights return loss_per_sample.mean() 

这种方法的优势在于,它不改变数据分布,避免了因重复采样带来的噪声放大;同时又能精准地将业务意图转化为可优化目标。而且,权重参数完全可以从配置文件读取,做到代码与策略解耦。

类似的思路还能拓展到更多高级场景:

  • Focal Loss:抑制易分类样本的贡献,聚焦难例;
  • Contrastive Loss:在检索增强问答中拉近 query 与 positive passage 的表示距离;
  • KL Div Loss:在蒸馏任务中对齐教师模型与学生模型的输出分布;
  • Multi-task Learning:联合优化生成任务和分类任务,共享主干网络。

这些都不是理论设想,而是已经在推荐系统、医疗诊断、法律文书生成等领域落地的技术实践。关键在于,你是否拥有一个足够开放的框架来承载这些创新。

Llama-Factory 的真正优势,不只是支持 LoRA、QLoRA 这些热门技术,而是它把整个微调链条打开给你看,并告诉你:“这里也可以改。” 它的设计哲学很明确:通用性解决共性问题,可扩展性应对个性需求。

这也解释了为什么它能在众多微调工具中脱颖而出。相比 Alpaca-LoRA 这类脚本型项目,它提供了 WebUI 和模块化 API;相比纯 CLI 工具,它又保留了深度定制的空间。无论是想快速验证想法的研究者,还是需要稳定交付的企业开发者,都能找到自己的位置。

未来的大模型训练,不会停留在“喂数据、调 learning rate”的层面。随着应用场景越来越复杂,我们需要的是语义感知的优化目标任务感知的损失结构,甚至是用户反馈驱动的动态调整机制。而这一切的起点,往往就是一个被重新定义的 compute_loss 方法。

当你能把“这个问题很重要”翻译成“这个样本的损失要翻倍”,你就不再只是在训练模型,而是在塑造它的价值观。这才是高级微调的真正意义。

Read more

别再手动写代码了!Claude Skills 实战,让 AI 帮你干 80% 的活!

别再手动写代码了!Claude Skills 实战,让 AI 帮你干 80% 的活!

📋 目录 1. 什么是 Claude Skills 2. 快速安装 Skills 3. 已安装的 Skills 清单 4. Skills 使用方式详解 5. 实战案例:使用 Frontend Design Skill 创建网站 6. Skill 管理最佳实践 7. 高级技巧 8. 常见问题排查 什么是 Claude Skills Claude Skills 是模块化的能力包,包含指令、元数据和可选资源(脚本、模板),让 Claude 在需要时自动加载和使用。 核心特点 * 自动触发 - 无需手动调用,Claude 会根据你的需求自动识别并使用合适的 Skill * 渐进式加载

[AI提效-18]-豆包AI绘图提示词全攻略(新手可直接套用)

豆包AI绘图的核心的是“精准提示词=理想图片”,很多新手出图翻车,不是功能不好用,而是没理清提示词的核心维度,不知道每个维度该怎么描述、对应什么效果。本文将逐一拆解画风、画质、主题内容、环境、场景、色彩、灯光要求、构图、角度、图片比例10大核心要素,每个要素配“含义+示例+提示词模板”,结合完整案例详解,新手看完就能直接上手,再也不用瞎猜描述。 核心原则:提示词不用长,但要“每个维度都落地”,避免模糊表述(如“好看的图”“漂亮的风景”),用具体关键词替代,让AI精准get你的需求。 一、核心提示词维度详解(含示例+模板) 1. 画风(决定图片的“整体风格调性”,最基础也最关键) 含义:指图片的艺术风格、绘画/拍摄流派,直接决定图片的视觉质感,是提示词的“

清华团队首发OpenClaw研究报告:AI智能体生态闭环全解析

清华团队首发OpenClaw研究报告:AI智能体生态闭环全解析

🍃 予枫:个人主页 📚 个人专栏: 《Java 从入门到起飞》《读研码农的干货日常》《Java 面试刷题指南》 💻 Debug 这个世界,Return 更好的自己! 引言 近期“龙虾”OpenClaw持续爆火,GitHub星标数一路飙升,成为AI智能体领域的现象级开源项目。就在这时,清华沈阳教授团队重磅首发两份OpenClaw专项研究报告,从理论到实践、从自我研究到生态布局,给出了最全面的解读,堪称OpenClaw学习的“官方指南”,程序员和AI从业者必看! 文章目录 * 引言 * 一、OPENCLAW双报告核心概况 * 1.1 《OpenClaw发展研究报告1.0》:严谨迭代的生态指南 * 1.2 《OpenClaw自我研究报告1.0》:AI研究AI的标杆实验 * 二、OPENCLAW领域阶段性进展 * 2.1 理论研究:筑牢生态基础,扩大科普影响力 * 2.2 模型研发:

Flutter 组件 pathfinding 的鸿蒙化适配实战 - 驾驭极致拓扑寻踪大坝、实现 OpenHarmony 分布式端高性能 AI 寻路、迷宫拓扑与工业级路径导航核方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 pathfinding 的鸿蒙化适配实战 - 驾驭极致拓扑寻踪大坝、实现 OpenHarmony 分布式端高性能 AI 寻路、迷宫拓扑与工业级路径导航核方案 前言 在鸿蒙(OpenHarmony)生态的分布式工业巡检、高性能游戏开发或者是对空间计算有极其严苛要求的 0308 批次智能仓储应用中。“复杂环境下的路径最优解计算与实时障碍避让维度”是衡量整个系统智慧化程度的最终质量门禁。面对包含数万个节点的网格地图、海量动态变化的货架坐标、甚至是由于跨设备同步产生的 0308 批次拓扑逻辑海洋。如果仅仅依靠简单的“直线欧式距离”或者是干瘪的广度优先搜索(BFS)。不仅会导致在处理大型复杂地图时让系统如同在逻辑废墟中盲人摸象。更会因为计算耗时指数级爆炸,让移动端在进行路径导航时瞬间陷入死机盲区。 我们需要一种“逻辑先行、代价建模”的空间演算艺术。 pathfinding 是一套专注于无缝整合全球公认顶级算法 A*、Dijkstra 以及二叉堆