LlamaFactory v0.9.4 正式发布:告别 2025,全面升级的 LLM 微调框架来了

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2025 年 12 月 31 日,LlamaFactory 正式发布 v0.9.4 版本。这是一个具有里程碑意义的版本,被官方定义为 不可变发布版本(Immutable Release),仅允许修改发布标题和发布说明内容。
该版本以 “Farewell to 2025” 为主题,向整个 2025 年告别,同时也宣布 LlamaFactory 将在 2026 年持续为社区提供简单、高效、先进的大模型微调框架

以下为 LlamaFactory v0.9.4 的完整更新内容详解。


一、重要变更(Breaking Changes)

本次版本包含多项对使用者影响较大的变更,升级前请务必关注:

  1. 项目仓库名称变更
    仓库名称已从 LLaMA-Factory 更新为 LlamaFactory,后续所有官方资源将统一使用新名称。
  2. Python 版本要求升级
    Python 3.9 与 3.10 已正式废弃。
    LlamaFactory 现在要求 Python 3.11 – 3.13
  3. 包管理工具迁移
    项目从 pip 迁移至 uv。
    安装方式更新为:
    使用 uv pip install llamafactory
  4. 官方博客上线
    LlamaFactory 官方博客已正式发布:
    https://blog.llamafactory.net/en/

二、重磅新特性(New Features)

v0.9.4 在算法、训练后端和工程能力上实现了全面增强:

  • 🔥 支持 正交微调(Orthogonal Fine-Tuning, OFT)
  • 🔥 支持 新增 Token 的语义初始化(Semantic Initialization)
  • 🔥 支持通过 MCoreAdapter 进行 Megatron-LM 训练
  • 🔥 支持 KTransformers 后端
  • 支持 MPO 算法
  • 支持 FP8 精度训练
  • 支持 Transformers v5
  • 支持在函数调用消息中同时使用 推理内容与纯文本
  • 支持 DeepSpeed AutoTP
  • 支持 高效的 NPU 融合算子
  • 支持 TRL 0.24

这些新特性进一步提升了 LlamaFactory 在大规模模型训练、分布式效率、硬件适配以及前沿算法支持方面的能力。


三、模型支持更新(Models)

v0.9.4 新增与扩展了大量前沿模型与多模态模型支持,覆盖文本、视觉及多任务场景:

  • Falcon H1
  • Kimi-VL
  • GLM-4.5V
  • Gemma3n
  • Granite4
  • Qwen3-2507
  • MiniCPM-V 4.0
  • Intern-S1-mini
  • Seed-OSS
  • MiniCPM-V 4.5
  • InternVL-3.5
  • ERNIE-4.5-Text
  • ERNIE-4.5-VL
  • Ling-V2
  • Qwen3-VL
  • Qwen3-Omni
  • Hunyuan-mt
  • GLM-4.6V
  • Ministral 3
  • VibeThinker
  • MiMo-V2-Flash
  • MiniMax-M1
  • MiniMax-M2

该版本在多模态、视觉语言建模和新一代通用模型支持方面达到了新的高度。


四、总结

代码地址:github.com/hiyouga/LlamaFactory

LlamaFactory v0.9.4 不只是一次常规更新,而是一次承前启后的关键版本:

  • 告别 2025,面向 2026 全面进化
  • Python、工具链与训练体系全面升级
  • 覆盖最新算法、硬件能力与模型生态
  • 继续坚持“简单 + 高效”的 LLM 微调理念

如果你正在使用或计划使用 LlamaFactory 进行大模型训练与微调,v0.9.4 是一个值得重点关注和升级的版本

告别 2025,下一站,2026。

Read more

(10-1)大模型时代的人形机器人感知:视觉-语言模型在机器人中的应用

(10-1)大模型时代的人形机器人感知:视觉-语言模型在机器人中的应用

本章内容聚焦大模型时代人形机器人的感知体系升级,系统介绍了视觉—语言模型、多模态Transformer与3D大模型在机器人中的核心作用,详细讲解了文本、视觉、点云与语音等信息的语义对齐与融合机制,介绍了从语言指令到视觉目标的Grounding、任务分解与意图理解方法,并通过闭环感知与决策联动,展示了大模型支撑机器人在复杂真实场景中的理解、规划与实时行动的用法。 10.1  视觉-语言模型在机器人中的应用 视觉—语言模型(Vision-Language Model,VLM)通过统一建模视觉与自然语言,使机器人具备“看懂并理解语言”的能力,是大模型时代机器人感知与认知融合的核心技术。VLM不仅能够完成图像识别、目标检测等传统感知任务,还可以直接理解语言指令、进行语义推理,并将高层语义映射为可执行的感知与行动目标,在人形机器人中广泛应用于交互理解、场景认知和任务执行等环节。 10.1.1  CLIP/BLIP/Flamingo等模型简介 随着大规模多模态数据与Transformer架构的发展,视觉—语言模型逐渐从“跨模态对齐”演进为“多模态理解与推理”。CLIP、BLIP与Flam

OpenClaw 完整安装与配置文档(包含Minimax/deepseek模型接入、飞书机器人接入)

OpenClaw 完整安装与配置文档 文档说明:本文档适用于 Linux 系统(Debian/Ubuntu 系列),详细梳理 OpenClaw 从基础环境准备、核心程序安装,到模型配置(Minimax/DeepSeek)、飞书渠道对接的全流程,所有交互式配置选项完整呈现,步骤可直接复制执行,适配新手操作。 适用场景:OpenClaw 新手部署、企业内部飞书机器人对接、Minimax/DeepSeek 模型配置 前置说明: 1. 服务器需联网,确保能访问 GitHub、npm、飞书官网; 2. 操作全程使用终端命令行,建议使用远程工具(如 Xshell、Putty)连接服务器; 3. 复制命令时需完整复制,避免遗漏特殊符号; 4. 所有交互式配置选项均完整列出,按文档指引选择即可。 5. 拥有root用户/sudo权限。

手把手教你用Coze搭建AI客服机器人:从零到上线的完整流程

从零构建企业级AI客服:基于Coze平台的可视化实战指南 你是否曾为客服团队处理重复性问题而焦头烂额?或是面对客户咨询高峰时,响应速度跟不上,导致用户体验下滑?在AI技术日益成熟的今天,构建一个智能客服机器人已不再是大型企业的专属。对于中小型团队或个人开发者而言,借助像字节跳动推出的Coze这样的平台,完全可以在短时间内,以极低的成本打造出一个功能强大、响应迅速的AI客服助手。这篇文章,我将以一个实际项目为例,带你一步步走完从环境准备、流程设计、知识库搭建到最终部署上线的全过程。我们不会停留在理论层面,而是深入到每一个配置细节和可能遇到的坑,让你真正掌握这门实用技能。 1. 项目规划与环境准备 在动手敲下第一行配置之前,清晰的规划是成功的一半。一个AI客服机器人不仅仅是回答问题的程序,它需要理解业务、融入流程、并具备持续学习的能力。我们首先要明确它的核心使命:是处理售前咨询,还是解决售后问题?是7x24小时在线接待,还是作为人工客服的辅助筛选工具?目标不同,设计的侧重点和复杂度也截然不同。 对于大多数中小企业,一个典型的客服机器人需要覆盖以下几个核心场景: * 高频问题自

【无人机】无人机路径规划算法

【无人机】无人机路径规划算法

目录 一、引言:无人机与路径规划算法 二、路径规划算法基础 (一)定义与重要性 (二)规划目标与约束条件 三、常见路径规划算法详解 (一)A * 算法 (二)Dijkstra 算法 (三)RRT(快速扩展随机树)算法 (四)蚁群算法 四、算法应用实例与效果展示 (一)不同场景下的算法应用 (二)算法性能对比数据 五、算法的优化与发展趋势 (一)现有算法的优化策略 (二)结合新技术的发展方向 六、挑战与展望 (一)面临的技术挑战 (二)未来应用前景 七、结论 一、引言:无人机与路径规划算法 在科技飞速发展的今天,无人机作为一种极具创新性的技术产物,已深度融入我们生活的方方面面,