ComfyUI v0.18.0 发布:显存与内存极限优化、VAE架构全面进化、API节点与前端生态深度升级

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

一、版本概览:一次“以稳定性与性能为核心”的里程碑更新

ComfyUI v0.18.0 于 2026 年 3 月 21 日 正式发布,这是一个不可变版本(仅允许修改发布标题与说明),也是目前为止变更密度最高、底层改动最深的一次版本更新之一。

本次更新共计:

  • 53 次提交
  • 79 个文件变更
  • 22 位贡献者
  • 覆盖 核心推理、VAE、显存管理、训练、API 节点、前端、工作流模板、CLI 参数、跨平台支持

整体方向可以总结为四个关键词:

更省显存 · 更稳内存 · 更强扩展 · 更一致的数据类型体系

二、显存与内存管理:v0.18.0 的绝对核心

1. VAE 内存优化达到新高度(LTX / WAN / 视频 VAE 全覆盖)

这是本次更新中最重要、也是改动最多的部分。

主要变化包括:
  • LTX VAE 解码显存多轮削减
    • 解码阶段峰值内存显著下降
    • 中间结果在 intermediate_device 上累积
    • 解码流程改为更细粒度的 chunk 处理
  • LTX VAE 编码器新增分块机制
    • 编码阶段支持 chunked encoder
    • CPU IO 分块加载,显著降低显存压力
  • WAN VAE 显存优化
    • 避免大分辨率下的 OOM
    • Tiler 场景更安全
  • 视频 VAE 修复显存泄漏
    • 修复 tiler fallback 场景下的 VRAM leak
  • 像素空间 VAE 潜在问题修复
  • VAE 输出支持原地处理
    • 有效降低峰值 RAM 消耗
  • tiled decode 峰值内存进一步降低

结果
即使是中低显存显卡,也能稳定运行高分辨率图像、复杂视频工作流。


2. 中间数据 dtype / device 体系全面统一

ComfyUI 在 v0.18.0 中系统性推进了一个重要理念:

中间值必须严格跟随 intermediate dtype 与 device
涉及节点与模块:
  • EmptyLatentImage
  • EmptyImage
  • 多个推理中间变量
  • VAE 中间解码与编码结果
新增参数:
  • --fp16-intermediates
    • 强制中间计算使用 FP16
    • 显著降低显存占用
    • 针对部分文本编码模型存在兼容性问题,已明确标注并修复相关回归

同时:

  • 修复了 FP16 intermediates 在部分文本编码器中不生效的问题
  • 明确区分权重 dtype 与中间计算 dtype
  • Load Diffusion Model 节点中 weight_dtype 被标记为高级参数

3. 动态显存与内存安全机制增强

  • 新增命令行参数:
    • --enable-dynamic-vram
      • 可强制开启动态显存机制
  • pinned read 逻辑增加更多排除条件
    • 修复极少数情况下的输出损坏问题
  • 跳过程序退出时的模型 finalizer
    • 避免退出阶段的异常与卡死
  • atomic 写入 userdata
    • 防止程序崩溃时的数据损坏

三、推理与训练能力升级

1. 多精度与新数据格式支持

  • 新增 MXFP8 支持
  • Trainer 支持:
    • FP4
    • FP8
    • FP16
  • 原生 dtype 支持
  • 量化线性层自动求导函数

✅ 对训练场景的意义:

  • 更低显存占用
  • 更灵活的混合精度训练
  • 更适合大模型与实验性模型

2. Attention 与平台适配优化

  • AMD gfx1150 启用 PyTorch Attention
  • 针对特定模型禁用 SageAttention
    • 避免推理异常
  • Apple Silicon 文本编码器 GPU 运行尝试后回退
    • 确保稳定性优先

四、API Nodes 与模型生态升级

1. API Nodes 功能扩展

  • Tencent TextToModel / ImageToModel 节点修复
  • Nano Banana 2 新增 thought_image 支持
  • 新增 Quiver SVG 节点
  • 本地 API 与云端规范对齐
  • 模型弃用标记:
    • seedream-3-0-t2i
    • seedance-1-0-lite

2. Context Window 与条件处理能力增强

  • 新增 slice_cond
  • 支持按模型调整上下文窗口条件尺寸
  • inline context window 导入结构优化

五、前端与工作流生态更新

1. 前端版本持续迭代

  • comfyui-frontend-package 升级至:
    • 1.41.19
    • 1.41.20
    • 1.41.21
  • 使用 no-store cache header
    • 防止前端资源缓存导致的版本不一致问题

2. 工作流与 UI 体验改进

  • 工作流模板更新至 v0.9.26
  • 节点新增 essentials_category
    • 支持 Essentials 标签页
    • 新手与高频节点更易发现

六、CLI、管理器与基础设施

  • Manager 版本升级:
    • 4.1b4
    • 4.1b5
    • 4.1b6
  • comfy-aimdo 升级:
    • 0.2.11
    • 0.2.12
  • Windows 平台 RAM 释放策略优化
    • 推理速度提升
    • 内存回收更及时
  • CI 增加校验规则
    • 阻止自动生成的 AI 协作标记进入主分支

七、稳定性修复与回滚说明

本次版本也包含多个关键回滚与问题修复:

  • 回滚外部分布式缓存 API 的相关改动
  • 修复多次回归问题
  • 修复初始化变量缺失
  • 删除无效的权重初始化代码
  • 避免子类场景下错误触发延迟初始化

这些操作的核心目标只有一个:

确保 v0.18.0 在复杂真实工作流中的长期稳定运行

八、总结:为什么 v0.18.0 是“必须升级”的版本

代码地址:github.com/Comfy-Org/ComfyUI

如果你符合以下任一情况,v0.18.0 都是强烈推荐升级的版本

  • 显存 8G / 12G 甚至更低
  • 使用 LTX / WAN / 视频 VAE
  • 需要高分辨率或大批量推理
  • 关注推理稳定性与内存安全
  • 使用 API Nodes 或自动化部署
  • 进行模型训练或混合精度实验

ComfyUI v0.18.0 并不是功能堆砌型更新,而是一次深度“工程级进化”。

Read more

本地AI自由!OpenClaw + Ollama 全离线部署实战手册 (Windows版)

厌倦了云端AI的Token计费焦虑和隐私泄露风险?想拥有一位完全听命于你的本地AI助手?本文将手把手教你,无需深厚编程基础,只需跟随步骤执行命令,即可在个人电脑上搭建属于你的全功能AI Agent。 核心优势:零费用:无需API Key,彻底告别按量付费。强隐私:数据全程本地处理,断网也能流畅使用。高自由:随心切换Qwen、GLM等顶尖开源模型。 ️ 第一阶段:环境准备(地基搭建) 在开始之前,请以管理员身份打开 PowerShell (按下 Win + X 选择)。这是我们接下来的操作中心。 1. 安装 Node.js (v18+) Node.js 是 OpenClaw 的运行环境,安装它时 npm 会自动就位。 1. 访问 Node.js 官网,下载 LTS (长期支持)

Trae CN、Lingma IDE、Cursor 三种AI开发IDE深度对比

一、概述 这三款AI原生IDE代表了新一代智能开发工具的发展方向,相较于传统IDE(如VS Code、IDEA),它们在代码生成、上下文理解和协同开发等方面有显著突破。以下从技术架构、使用场景和本土化适配等维度进行对比。 二、发展背景 工具开发团队发布时间核心定位Trae CN字节跳动2024年Q1中文优化最好的AI编程助手Lingma IDE阿里云2025年5月企业级AI原生开发环境Cursor美国Anysphere团队2022年深度代码理解的全球化IDE 三、核心技术对比 1. AI引擎架构 2. 技术栈差异 工具编辑器内核AI集成方式数据流向Trae CNVS Code Mod云端轮询可选国内服务器LingmaOpenVSX定制阿里云PAI直连完全国内闭环CursorRust重写核心本地+云混合默认境外服务器 四、性能实测数据 (基于相同硬件:i7-13700H/32GB RAM) 测试项Trae CNLingmaCursor代码生成响应时间2.3s1.8s1.2s10万行项目加载速度9.2s6.8s4.5s中文注释理解准确率92%88%7

OpenClaw 全攻略:从入门到精通的 AI 智能体部署指南

OpenClaw 全攻略:从入门到精通的 AI 智能体部署指南

第一部分:认知篇 —— 什么是 OpenClaw? 1.1 定义与定位 OpenClaw(原名 Clawdbot / Moltbot)是一个本地优先、隐私至上、多渠道集成的自托管 AI 助手平台。它标志着人工智能从“对话式交互”迈入“自主行动”的第三阶段。 通俗理解: 传统 AI(如网页版 ChatGPT):你问一句,它答一句,像个顾问。 OpenClaw:你给它一个目标(如“帮我整理本月财报并发送给团队”),它能自己规划步骤、搜索数据、处理文件、发送邮件,像个员工。 1.2 核心架构:App、Gateway 与 CLI 要玩转 OpenClaw,必须理解它的三个核心组件: Gateway(网关)

实测|WSL2 从零部署 OpenClaw AI 助手:安装配置与实战运行教程

实测|WSL2 从零部署 OpenClaw AI 助手:安装配置与实战运行教程

【本文作者:Rickton】 本文是 2026 年最新可用的 WSL2 + OpenClaw 完整部署教程,面向零基础用户,从开启 WSL2、安装 Ubuntu、配置 Node.js 到一键启动 OpenClaw 控制台,一步一命令,复制粘贴即可运行。 解决 Windows 原生部署报错、环境不兼容、端口不通、Node 版本不对等常见问题,适合本地搭建 AI 助手、学习 Agent 开发。 第一部分:认识 WSL2—— Windows 中的 Linux 环境 WSL2 是什么? WSL2 (Windows Subsystem for Linux 2) 是微软官方提供的一项功能,