ComfyUI v0.18.0 发布:显存与内存极限优化、VAE架构全面进化、API节点与前端生态深度升级

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

一、版本概览:一次“以稳定性与性能为核心”的里程碑更新

ComfyUI v0.18.0 于 2026 年 3 月 21 日 正式发布,这是一个不可变版本(仅允许修改发布标题与说明),也是目前为止变更密度最高、底层改动最深的一次版本更新之一。

本次更新共计:

  • 53 次提交
  • 79 个文件变更
  • 22 位贡献者
  • 覆盖 核心推理、VAE、显存管理、训练、API 节点、前端、工作流模板、CLI 参数、跨平台支持

整体方向可以总结为四个关键词:

更省显存 · 更稳内存 · 更强扩展 · 更一致的数据类型体系

二、显存与内存管理:v0.18.0 的绝对核心

1. VAE 内存优化达到新高度(LTX / WAN / 视频 VAE 全覆盖)

这是本次更新中最重要、也是改动最多的部分。

主要变化包括:
  • LTX VAE 解码显存多轮削减
    • 解码阶段峰值内存显著下降
    • 中间结果在 intermediate_device 上累积
    • 解码流程改为更细粒度的 chunk 处理
  • LTX VAE 编码器新增分块机制
    • 编码阶段支持 chunked encoder
    • CPU IO 分块加载,显著降低显存压力
  • WAN VAE 显存优化
    • 避免大分辨率下的 OOM
    • Tiler 场景更安全
  • 视频 VAE 修复显存泄漏
    • 修复 tiler fallback 场景下的 VRAM leak
  • 像素空间 VAE 潜在问题修复
  • VAE 输出支持原地处理
    • 有效降低峰值 RAM 消耗
  • tiled decode 峰值内存进一步降低

结果
即使是中低显存显卡,也能稳定运行高分辨率图像、复杂视频工作流。


2. 中间数据 dtype / device 体系全面统一

ComfyUI 在 v0.18.0 中系统性推进了一个重要理念:

中间值必须严格跟随 intermediate dtype 与 device
涉及节点与模块:
  • EmptyLatentImage
  • EmptyImage
  • 多个推理中间变量
  • VAE 中间解码与编码结果
新增参数:
  • --fp16-intermediates
    • 强制中间计算使用 FP16
    • 显著降低显存占用
    • 针对部分文本编码模型存在兼容性问题,已明确标注并修复相关回归

同时:

  • 修复了 FP16 intermediates 在部分文本编码器中不生效的问题
  • 明确区分权重 dtype 与中间计算 dtype
  • Load Diffusion Model 节点中 weight_dtype 被标记为高级参数

3. 动态显存与内存安全机制增强

  • 新增命令行参数:
    • --enable-dynamic-vram
      • 可强制开启动态显存机制
  • pinned read 逻辑增加更多排除条件
    • 修复极少数情况下的输出损坏问题
  • 跳过程序退出时的模型 finalizer
    • 避免退出阶段的异常与卡死
  • atomic 写入 userdata
    • 防止程序崩溃时的数据损坏

三、推理与训练能力升级

1. 多精度与新数据格式支持

  • 新增 MXFP8 支持
  • Trainer 支持:
    • FP4
    • FP8
    • FP16
  • 原生 dtype 支持
  • 量化线性层自动求导函数

✅ 对训练场景的意义:

  • 更低显存占用
  • 更灵活的混合精度训练
  • 更适合大模型与实验性模型

2. Attention 与平台适配优化

  • AMD gfx1150 启用 PyTorch Attention
  • 针对特定模型禁用 SageAttention
    • 避免推理异常
  • Apple Silicon 文本编码器 GPU 运行尝试后回退
    • 确保稳定性优先

四、API Nodes 与模型生态升级

1. API Nodes 功能扩展

  • Tencent TextToModel / ImageToModel 节点修复
  • Nano Banana 2 新增 thought_image 支持
  • 新增 Quiver SVG 节点
  • 本地 API 与云端规范对齐
  • 模型弃用标记:
    • seedream-3-0-t2i
    • seedance-1-0-lite

2. Context Window 与条件处理能力增强

  • 新增 slice_cond
  • 支持按模型调整上下文窗口条件尺寸
  • inline context window 导入结构优化

五、前端与工作流生态更新

1. 前端版本持续迭代

  • comfyui-frontend-package 升级至:
    • 1.41.19
    • 1.41.20
    • 1.41.21
  • 使用 no-store cache header
    • 防止前端资源缓存导致的版本不一致问题

2. 工作流与 UI 体验改进

  • 工作流模板更新至 v0.9.26
  • 节点新增 essentials_category
    • 支持 Essentials 标签页
    • 新手与高频节点更易发现

六、CLI、管理器与基础设施

  • Manager 版本升级:
    • 4.1b4
    • 4.1b5
    • 4.1b6
  • comfy-aimdo 升级:
    • 0.2.11
    • 0.2.12
  • Windows 平台 RAM 释放策略优化
    • 推理速度提升
    • 内存回收更及时
  • CI 增加校验规则
    • 阻止自动生成的 AI 协作标记进入主分支

七、稳定性修复与回滚说明

本次版本也包含多个关键回滚与问题修复:

  • 回滚外部分布式缓存 API 的相关改动
  • 修复多次回归问题
  • 修复初始化变量缺失
  • 删除无效的权重初始化代码
  • 避免子类场景下错误触发延迟初始化

这些操作的核心目标只有一个:

确保 v0.18.0 在复杂真实工作流中的长期稳定运行

八、总结:为什么 v0.18.0 是“必须升级”的版本

代码地址:github.com/Comfy-Org/ComfyUI

如果你符合以下任一情况,v0.18.0 都是强烈推荐升级的版本

  • 显存 8G / 12G 甚至更低
  • 使用 LTX / WAN / 视频 VAE
  • 需要高分辨率或大批量推理
  • 关注推理稳定性与内存安全
  • 使用 API Nodes 或自动化部署
  • 进行模型训练或混合精度实验

ComfyUI v0.18.0 并不是功能堆砌型更新,而是一次深度“工程级进化”。

Read more

AMD显卡AI绘画终极指南:解锁ComfyUI-Zluda隐藏性能

AMD显卡AI绘画终极指南:解锁ComfyUI-Zluda隐藏性能 【免费下载链接】ComfyUI-ZludaThe most powerful and modular stable diffusion GUI, api and backend with a graph/nodes interface. Now ZLUDA enhanced for better AMD GPU performance. 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Zluda AMD显卡用户现在可以通过革命性的ComfyUI-Zluda项目,彻底释放显卡的AI绘画潜力。这项技术让RX系列显卡在Stable Diffusion等AI绘画应用中表现卓越,性能提升显著。 技术痛点深度解析 AMD显卡在AI计算领域长期面临兼容性挑战,传统方案往往无法充分发挥硬件性能。Zluda技术的核心突破在于将CUDA调用实时转换为ROCm HIP指令,让AMD显卡能够无缝运行基于CUDA的AI应用。 核心瓶颈分析: * CUDA生态壁垒:90%的AI应用基

AI辅助编程工具(三) - Github Copilot

AI辅助编程工具(三) - Github Copilot

三、Github Copilot 简单来说,GitHub Copilot 是由 GitHub 和 OpenAI 共同开发的人工智能编程助手。它基于 OpenAI 的 GPT-4 等大模型,并在海量的开源代码库上进行过训练。 它的工作原理: 它不只是一个简单的“自动补全”工具。它会读取你的代码上下文——包括你刚刚写的变量名、光标所在的文件、甚至是项目中其他相关文件的代码——然后实时预测你接下来想写什么。 对于前端开发者而言,它最迷人的地方在于:它懂 React、懂 Vue、懂 Tailwind CSS,甚至懂你那不规范的代码风格。 3.1 GitHub Copilot 安装与使用 安装前的准备 在开始之前,你需要确保拥有以下条件: 1. GitHub 账号:如果没有,请先去 GitHub

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

引言:突破视觉创作的传统限制 在视觉内容的创作领域,长久以来存在着一系列由技术、时间及预算构成的严格限制。这些限制直接影响着创意从概念到最终呈现的全过程。一个富有创造力的设计师,可能会因为无法承担高昂的实地拍摄费用,而不得不放弃一个原本极具潜力的广告方案。一个构思了宏大世界观的故事作者,可能因为不具备操作复杂三维建模软件的专业技能,而使其笔下的角色无法获得具象化的视觉呈现。一家新兴的初创公司,也可能因为传统设计流程的冗长和低效,在快速变化的市场竞争中错失发展机会。 社会和行业在某种程度上已经习惯了这种因工具和流程限制而产生的“创意妥协”。创作者们在面对自己宏大的构想时,常常因为工具的局限性而感到无力。一种普遍的观念是,顶级的、具有专业水准的视觉呈现,是少数拥有充足资源和专业团队的机构或个人的专属领域。 然而,由豆包·图像创作模型Seedream 4.0所引领的技术发展,正在从根本上改变这一现状。它所提供的并非是对现有工具集的微小改进或功能补充,而是一种全新的、高效的创作工作模式。通过这一模式,过去需要专业团队投入数周时间才能完成的复杂视觉项目,现在可以在极短的时间内,在操作者的

Vscode新手必看:GitHub Copilot从安装到实战的5个高效用法

Vscode新手必看:GitHub Copilot从安装到实战的5个高效用法 最近和几位刚入行的朋友聊天,发现他们虽然装了Vscode,也听说过GitHub Copilot的大名,但真正用起来的却不多。要么是觉得配置麻烦,要么是打开后只会傻傻地等它自动补全,完全没发挥出这个“AI结对程序员”的威力。这让我想起自己刚开始用Copilot那会儿,也是摸索了好一阵子才找到感觉。今天,我就把自己从安装到深度使用过程中,那些真正提升效率的实战心得整理出来,希望能帮你绕过那些坑,快速把Copilot变成你的开发利器。 GitHub Copilot远不止是一个高级的代码补全工具。当你真正理解它的工作模式,并学会与之高效“对话”时,它能在代码生成、逻辑解释、问题调试乃至学习新框架等多个维度,显著改变你的编程体验。这篇文章不会重复那些官网都有的基础操作,而是聚焦于五个经过实战检验的高效用法,让你从“会用”进阶到“精通”。 1. 环境准备与深度配置:不止是安装插件 很多教程把安装Copilot描述为“点一下按钮”那么简单,但要想获得流畅稳定的体验,一些前置准备和深度配置至关重要。这就像给赛车加油