ComfyUI v0.18.0 发布:显存与内存极限优化、VAE架构全面进化、API节点与前端生态深度升级

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

一、版本概览:一次“以稳定性与性能为核心”的里程碑更新

ComfyUI v0.18.0 于 2026 年 3 月 21 日 正式发布,这是一个不可变版本(仅允许修改发布标题与说明),也是目前为止变更密度最高、底层改动最深的一次版本更新之一。

本次更新共计:

  • 53 次提交
  • 79 个文件变更
  • 22 位贡献者
  • 覆盖 核心推理、VAE、显存管理、训练、API 节点、前端、工作流模板、CLI 参数、跨平台支持

整体方向可以总结为四个关键词:

更省显存 · 更稳内存 · 更强扩展 · 更一致的数据类型体系

二、显存与内存管理:v0.18.0 的绝对核心

1. VAE 内存优化达到新高度(LTX / WAN / 视频 VAE 全覆盖)

这是本次更新中最重要、也是改动最多的部分。

主要变化包括:
  • LTX VAE 解码显存多轮削减
    • 解码阶段峰值内存显著下降
    • 中间结果在 intermediate_device 上累积
    • 解码流程改为更细粒度的 chunk 处理
  • LTX VAE 编码器新增分块机制
    • 编码阶段支持 chunked encoder
    • CPU IO 分块加载,显著降低显存压力
  • WAN VAE 显存优化
    • 避免大分辨率下的 OOM
    • Tiler 场景更安全
  • 视频 VAE 修复显存泄漏
    • 修复 tiler fallback 场景下的 VRAM leak
  • 像素空间 VAE 潜在问题修复
  • VAE 输出支持原地处理
    • 有效降低峰值 RAM 消耗
  • tiled decode 峰值内存进一步降低

结果
即使是中低显存显卡,也能稳定运行高分辨率图像、复杂视频工作流。


2. 中间数据 dtype / device 体系全面统一

ComfyUI 在 v0.18.0 中系统性推进了一个重要理念:

中间值必须严格跟随 intermediate dtype 与 device
涉及节点与模块:
  • EmptyLatentImage
  • EmptyImage
  • 多个推理中间变量
  • VAE 中间解码与编码结果
新增参数:
  • --fp16-intermediates
    • 强制中间计算使用 FP16
    • 显著降低显存占用
    • 针对部分文本编码模型存在兼容性问题,已明确标注并修复相关回归

同时:

  • 修复了 FP16 intermediates 在部分文本编码器中不生效的问题
  • 明确区分权重 dtype 与中间计算 dtype
  • Load Diffusion Model 节点中 weight_dtype 被标记为高级参数

3. 动态显存与内存安全机制增强

  • 新增命令行参数:
    • --enable-dynamic-vram
      • 可强制开启动态显存机制
  • pinned read 逻辑增加更多排除条件
    • 修复极少数情况下的输出损坏问题
  • 跳过程序退出时的模型 finalizer
    • 避免退出阶段的异常与卡死
  • atomic 写入 userdata
    • 防止程序崩溃时的数据损坏

三、推理与训练能力升级

1. 多精度与新数据格式支持

  • 新增 MXFP8 支持
  • Trainer 支持:
    • FP4
    • FP8
    • FP16
  • 原生 dtype 支持
  • 量化线性层自动求导函数

✅ 对训练场景的意义:

  • 更低显存占用
  • 更灵活的混合精度训练
  • 更适合大模型与实验性模型

2. Attention 与平台适配优化

  • AMD gfx1150 启用 PyTorch Attention
  • 针对特定模型禁用 SageAttention
    • 避免推理异常
  • Apple Silicon 文本编码器 GPU 运行尝试后回退
    • 确保稳定性优先

四、API Nodes 与模型生态升级

1. API Nodes 功能扩展

  • Tencent TextToModel / ImageToModel 节点修复
  • Nano Banana 2 新增 thought_image 支持
  • 新增 Quiver SVG 节点
  • 本地 API 与云端规范对齐
  • 模型弃用标记:
    • seedream-3-0-t2i
    • seedance-1-0-lite

2. Context Window 与条件处理能力增强

  • 新增 slice_cond
  • 支持按模型调整上下文窗口条件尺寸
  • inline context window 导入结构优化

五、前端与工作流生态更新

1. 前端版本持续迭代

  • comfyui-frontend-package 升级至:
    • 1.41.19
    • 1.41.20
    • 1.41.21
  • 使用 no-store cache header
    • 防止前端资源缓存导致的版本不一致问题

2. 工作流与 UI 体验改进

  • 工作流模板更新至 v0.9.26
  • 节点新增 essentials_category
    • 支持 Essentials 标签页
    • 新手与高频节点更易发现

六、CLI、管理器与基础设施

  • Manager 版本升级:
    • 4.1b4
    • 4.1b5
    • 4.1b6
  • comfy-aimdo 升级:
    • 0.2.11
    • 0.2.12
  • Windows 平台 RAM 释放策略优化
    • 推理速度提升
    • 内存回收更及时
  • CI 增加校验规则
    • 阻止自动生成的 AI 协作标记进入主分支

七、稳定性修复与回滚说明

本次版本也包含多个关键回滚与问题修复:

  • 回滚外部分布式缓存 API 的相关改动
  • 修复多次回归问题
  • 修复初始化变量缺失
  • 删除无效的权重初始化代码
  • 避免子类场景下错误触发延迟初始化

这些操作的核心目标只有一个:

确保 v0.18.0 在复杂真实工作流中的长期稳定运行

八、总结:为什么 v0.18.0 是“必须升级”的版本

代码地址:github.com/Comfy-Org/ComfyUI

如果你符合以下任一情况,v0.18.0 都是强烈推荐升级的版本

  • 显存 8G / 12G 甚至更低
  • 使用 LTX / WAN / 视频 VAE
  • 需要高分辨率或大批量推理
  • 关注推理稳定性与内存安全
  • 使用 API Nodes 或自动化部署
  • 进行模型训练或混合精度实验

ComfyUI v0.18.0 并不是功能堆砌型更新,而是一次深度“工程级进化”。

Read more

2026年AI Agent实战:从玩具到生产力的落地手册(附源码)

2026年AI Agent实战:从玩具到生产力的落地手册(附源码)

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” * 前言 * 目录 * 一、AI Agent 的核心架构 * 1.1 什么是AI Agent? * 1.2 2026年Agent技术栈全景 * 二、从零搭建生产级Agent框架 * 2.1 项目结构设计 * 2.2 核心代码:Agent基类 * 2.3 记忆管理系统 * 三、三大核心技术实现 * 3.1 ReAct框架:推理+行动协同 * 3.2 工具调用系统 * 3.3 任务规划器 * 四、实战案例:智能客服Agent * 4.1 场景分析

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

前言 * 你有没有发现,AI 正在悄悄渗透进我们的生活:写文案、画插图、做PPT、答作业,它几乎无所不能😍 !但很多人可能会问: AI,我能用吗?用得起吗?适合我吗?特别是中文用户,面对清一色英文界面、动辄上百元的 API 费用、还要“翻墙”的闭源大模型,常常望而却步😩。 * 好消息来了,文心一言4.5 正式开源,带着「能跑、好用、懂中文」的标签亮相😎。这不仅是一款中文大模型,更像是为中文用户量身定做的一把 AI 钥匙,让你在本地就能打开 AI 世界的大门!在这个“不会用 AI 就像不会用手机”的时代,早点上手,早点受益。 * 一起来轻松玩转文心大模型吧👉一文心大模型免费下载地址: https://ai.

Python+AI 实战:搭建属于你的智能问答机器人

Python+AI 实战:搭建属于你的智能问答机器人

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” 引言 * 在数字化转型浪潮中,智能问答机器人正成为企业客服、知识库检索乃至个人助理等场景的关键交互入口。它能让员工秒级获取技术解答、客户即时获得业务支持、学习者随时得到个性化辅导,极大提升信息获取效率与用户体验。 * 为何选择 Python 与开源 AI 模型?Python 拥有成熟的 AI 生态——Hugging Face Transformers、LangChain、FAISS 等工具大幅降低开发门槛;而本地部署的开源大模型(如 Phi-3、Mistral、Llama 系列)则保障了数据隐私、规避了 API 成本,特别适合对安全性或离线能力有要求的场景。 * 本文将手把手带你从零构建一个基于 RAG(检索增强生成)架构的本地智能问答系统:使用 Sentence-BERT 实现语义检索,FAISS 作为向量数据库,并集成轻量级开源语言模型生成答案。

【大模型应用】AI领域新概念“Skill”的深度解析与核心工作原理

一、 背景引入:为什么需要“Skill”? • 概念演进背景:近年来AI新名词层出不穷(提示词工程 → 智能体 → MCP → A2A → A2UI → Skill)。 • 传统提示词的痛点: • Token浪费:当积累了大量不同用途的复杂提示词(如写菜谱、读论文、写代码)时,如果一股脑全发给AI,会消耗大量Token。 • AI易迷茫(幻觉/失焦):一次性输入过多与当前问题无关的提示词信息,容易干扰AI的理解,导致回答不准确。 • 核心解决思路:需要一种机制,能够根据用户的问题,自动筛选并调出合适的提示词,这就是“Skill”诞生的初衷。 二、 “Skill”的核心物理结构 • 核心定义:一个不同用途的提示词就是一个Skill。在物理层面上,Skill本身就是一个文件夹。 • 核心文件(SKILL.md):文件夹内包含一个名为SKILL.md的文件,存放着提示词的主体内容(如写菜谱的具体要求、克数精确度等)。 • 关键组件(