LlamaFactory v0.9.4 正式发布:告别 2025,全面升级的 LLM 微调框架来了

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2025 年 12 月 31 日,LlamaFactory 正式发布 v0.9.4 版本。这是一个具有里程碑意义的版本,被官方定义为 不可变发布版本(Immutable Release),仅允许修改发布标题和发布说明内容。
该版本以 “Farewell to 2025” 为主题,向整个 2025 年告别,同时也宣布 LlamaFactory 将在 2026 年持续为社区提供简单、高效、先进的大模型微调框架

以下为 LlamaFactory v0.9.4 的完整更新内容详解。


一、重要变更(Breaking Changes)

本次版本包含多项对使用者影响较大的变更,升级前请务必关注:

  1. 项目仓库名称变更
    仓库名称已从 LLaMA-Factory 更新为 LlamaFactory,后续所有官方资源将统一使用新名称。
  2. Python 版本要求升级
    Python 3.9 与 3.10 已正式废弃。
    LlamaFactory 现在要求 Python 3.11 – 3.13
  3. 包管理工具迁移
    项目从 pip 迁移至 uv。
    安装方式更新为:
    使用 uv pip install llamafactory
  4. 官方博客上线
    LlamaFactory 官方博客已正式发布:
    https://blog.llamafactory.net/en/

二、重磅新特性(New Features)

v0.9.4 在算法、训练后端和工程能力上实现了全面增强:

  • 🔥 支持 正交微调(Orthogonal Fine-Tuning, OFT)
  • 🔥 支持 新增 Token 的语义初始化(Semantic Initialization)
  • 🔥 支持通过 MCoreAdapter 进行 Megatron-LM 训练
  • 🔥 支持 KTransformers 后端
  • 支持 MPO 算法
  • 支持 FP8 精度训练
  • 支持 Transformers v5
  • 支持在函数调用消息中同时使用 推理内容与纯文本
  • 支持 DeepSpeed AutoTP
  • 支持 高效的 NPU 融合算子
  • 支持 TRL 0.24

这些新特性进一步提升了 LlamaFactory 在大规模模型训练、分布式效率、硬件适配以及前沿算法支持方面的能力。


三、模型支持更新(Models)

v0.9.4 新增与扩展了大量前沿模型与多模态模型支持,覆盖文本、视觉及多任务场景:

  • Falcon H1
  • Kimi-VL
  • GLM-4.5V
  • Gemma3n
  • Granite4
  • Qwen3-2507
  • MiniCPM-V 4.0
  • Intern-S1-mini
  • Seed-OSS
  • MiniCPM-V 4.5
  • InternVL-3.5
  • ERNIE-4.5-Text
  • ERNIE-4.5-VL
  • Ling-V2
  • Qwen3-VL
  • Qwen3-Omni
  • Hunyuan-mt
  • GLM-4.6V
  • Ministral 3
  • VibeThinker
  • MiMo-V2-Flash
  • MiniMax-M1
  • MiniMax-M2

该版本在多模态、视觉语言建模和新一代通用模型支持方面达到了新的高度。


四、总结

代码地址:github.com/hiyouga/LlamaFactory

LlamaFactory v0.9.4 不只是一次常规更新,而是一次承前启后的关键版本:

  • 告别 2025,面向 2026 全面进化
  • Python、工具链与训练体系全面升级
  • 覆盖最新算法、硬件能力与模型生态
  • 继续坚持“简单 + 高效”的 LLM 微调理念

如果你正在使用或计划使用 LlamaFactory 进行大模型训练与微调,v0.9.4 是一个值得重点关注和升级的版本

告别 2025,下一站,2026。

Read more

Kestrel:.NET 的高性能 Web 服务器探秘

摘要 Kestrel 是 ASP.NET Core 默认且推荐的跨平台 Web 服务器。它以其卓越的性能和灵活性著称。本文将深入浅出地介绍 Kestrel 的核心特性、工作原理、配置方法以及最佳实践,帮助开发者充分利用这一强大的内置服务器。 目录 1. Kestrel 是什么?为什么选择它? 2. Kestrel 的核心优势 3. Kestrel 的工作原理简析 4. 配置 Kestrel:从基础到高级 5. Kestrel 在反向代理环境下的部署 6. 性能考量与调优建议 7. 常见问题与最佳实践 8. 总结 1. Kestrel 是什么?为什么选择它? Kestrel 是一个由 Microsoft 开发的、专为 ASP.

国产化服务器部署:银河麒麟系统搭建 Web 服务实战

一、前言 在国产化替代浪潮下,政企单位对服务器硬件、操作系统的国产化适配需求日益迫切。银河麒麟操作系统(Kylin OS)作为国内自主研发的主流服务器操作系统,凭借其高安全性、稳定兼容性和完善的国产化生态支持,成为服务器部署的核心选择之一。 Web 服务作为企业数字化转型的基础载体,广泛应用于内部办公系统、业务展示平台、国产化应用发布等场景。本文将聚焦 “银河麒麟服务器版搭建 Web 服务” 的全流程实战,从环境准备、软件安装、配置优化到访问测试,一步步带大家实现国产化服务器的 Web 服务部署,同时规避常见坑点,兼顾实用性与国产化适配特性。 本文适用于银河麒麟服务器版(推荐 Kylin Server V10 SP3),以主流的 Nginx 作为 Web 服务器软件(轻量化、高性能,适配国产化芯片架构),全程提供可直接复制的命令和配置示例,零基础也能快速上手。 二、前期准备 2.1

Vibe Coding时代,后端程序员开发`前端`的最佳实践

Vibe Coding时代,后端程序员开发`前端`的最佳实践

对于不懂前端、追求极速开发的后端程序员, 首选方案是 Next.js + Tailwind CSS + shadcn/ui(T3 Stack 开箱模板) 「AI编码核心工具 → 上下文增强MCP → 框架模板 → UI组件 → 资源网站 → 核心技巧」 1. 全栈元框架:彻底打通前后端壁垒,消除接口对接痛点 代表框架:Next.js、Nuxt.js、SvelteKit * 零配置开箱即用:内置基于文件的路由、SSR/SSG、API接口、构建优化,不用处理webpack/vite复杂配置、不用解决跨域问题,AI能一键生成完整项目结构,后端程序员无需关心前端工程化细节。 * 全栈一体化开发:Server Actions/服务端加载函数,让你可以直接在前端组件里写服务端逻辑,不用单独开发REST API、不用写接口文档,从数据库到前端页面类型全程共享,AI能补全CRUD全链路代码,完全契合后端MVC开发思维。

Microi 吾码与 JavaScript:前端低代码平台的强大组合

Microi 吾码与 JavaScript:前端低代码平台的强大组合

目录 一、引言 二、Microi 吾码概述 三、JavaScript 在 Microi 吾码前端开发中的应用 (一)前端 V8 引擎与 JavaScript (二)接口引擎与 JavaScript 四、JavaScript 在 Microi 吾码后端开发中的协同 (一)与 C# 后端框架的交互 (二)利用 gRPC 实现跨语言通信 五、Microi 吾码中 JavaScript 与数据库的交互 六、Microi 吾码中 JavaScript 在表单与模板引擎中的应用 七、总结与展望 一、引言 在当今数字化浪潮汹涌澎湃的时代,编程技术成为推动创新与变革的核心力量。Microi 吾码作为一款新兴的编程框架,