ComfyUI v0.18.0 发布:显存与内存极限优化、VAE架构全面进化、API节点与前端生态深度升级

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

一、版本概览:一次“以稳定性与性能为核心”的里程碑更新

ComfyUI v0.18.0 于 2026 年 3 月 21 日 正式发布,这是一个不可变版本(仅允许修改发布标题与说明),也是目前为止变更密度最高、底层改动最深的一次版本更新之一。

本次更新共计:

  • 53 次提交
  • 79 个文件变更
  • 22 位贡献者
  • 覆盖 核心推理、VAE、显存管理、训练、API 节点、前端、工作流模板、CLI 参数、跨平台支持

整体方向可以总结为四个关键词:

更省显存 · 更稳内存 · 更强扩展 · 更一致的数据类型体系

二、显存与内存管理:v0.18.0 的绝对核心

1. VAE 内存优化达到新高度(LTX / WAN / 视频 VAE 全覆盖)

这是本次更新中最重要、也是改动最多的部分。

主要变化包括:
  • LTX VAE 解码显存多轮削减
    • 解码阶段峰值内存显著下降
    • 中间结果在 intermediate_device 上累积
    • 解码流程改为更细粒度的 chunk 处理
  • LTX VAE 编码器新增分块机制
    • 编码阶段支持 chunked encoder
    • CPU IO 分块加载,显著降低显存压力
  • WAN VAE 显存优化
    • 避免大分辨率下的 OOM
    • Tiler 场景更安全
  • 视频 VAE 修复显存泄漏
    • 修复 tiler fallback 场景下的 VRAM leak
  • 像素空间 VAE 潜在问题修复
  • VAE 输出支持原地处理
    • 有效降低峰值 RAM 消耗
  • tiled decode 峰值内存进一步降低

结果
即使是中低显存显卡,也能稳定运行高分辨率图像、复杂视频工作流。


2. 中间数据 dtype / device 体系全面统一

ComfyUI 在 v0.18.0 中系统性推进了一个重要理念:

中间值必须严格跟随 intermediate dtype 与 device
涉及节点与模块:
  • EmptyLatentImage
  • EmptyImage
  • 多个推理中间变量
  • VAE 中间解码与编码结果
新增参数:
  • --fp16-intermediates
    • 强制中间计算使用 FP16
    • 显著降低显存占用
    • 针对部分文本编码模型存在兼容性问题,已明确标注并修复相关回归

同时:

  • 修复了 FP16 intermediates 在部分文本编码器中不生效的问题
  • 明确区分权重 dtype 与中间计算 dtype
  • Load Diffusion Model 节点中 weight_dtype 被标记为高级参数

3. 动态显存与内存安全机制增强

  • 新增命令行参数:
    • --enable-dynamic-vram
      • 可强制开启动态显存机制
  • pinned read 逻辑增加更多排除条件
    • 修复极少数情况下的输出损坏问题
  • 跳过程序退出时的模型 finalizer
    • 避免退出阶段的异常与卡死
  • atomic 写入 userdata
    • 防止程序崩溃时的数据损坏

三、推理与训练能力升级

1. 多精度与新数据格式支持

  • 新增 MXFP8 支持
  • Trainer 支持:
    • FP4
    • FP8
    • FP16
  • 原生 dtype 支持
  • 量化线性层自动求导函数

✅ 对训练场景的意义:

  • 更低显存占用
  • 更灵活的混合精度训练
  • 更适合大模型与实验性模型

2. Attention 与平台适配优化

  • AMD gfx1150 启用 PyTorch Attention
  • 针对特定模型禁用 SageAttention
    • 避免推理异常
  • Apple Silicon 文本编码器 GPU 运行尝试后回退
    • 确保稳定性优先

四、API Nodes 与模型生态升级

1. API Nodes 功能扩展

  • Tencent TextToModel / ImageToModel 节点修复
  • Nano Banana 2 新增 thought_image 支持
  • 新增 Quiver SVG 节点
  • 本地 API 与云端规范对齐
  • 模型弃用标记:
    • seedream-3-0-t2i
    • seedance-1-0-lite

2. Context Window 与条件处理能力增强

  • 新增 slice_cond
  • 支持按模型调整上下文窗口条件尺寸
  • inline context window 导入结构优化

五、前端与工作流生态更新

1. 前端版本持续迭代

  • comfyui-frontend-package 升级至:
    • 1.41.19
    • 1.41.20
    • 1.41.21
  • 使用 no-store cache header
    • 防止前端资源缓存导致的版本不一致问题

2. 工作流与 UI 体验改进

  • 工作流模板更新至 v0.9.26
  • 节点新增 essentials_category
    • 支持 Essentials 标签页
    • 新手与高频节点更易发现

六、CLI、管理器与基础设施

  • Manager 版本升级:
    • 4.1b4
    • 4.1b5
    • 4.1b6
  • comfy-aimdo 升级:
    • 0.2.11
    • 0.2.12
  • Windows 平台 RAM 释放策略优化
    • 推理速度提升
    • 内存回收更及时
  • CI 增加校验规则
    • 阻止自动生成的 AI 协作标记进入主分支

七、稳定性修复与回滚说明

本次版本也包含多个关键回滚与问题修复:

  • 回滚外部分布式缓存 API 的相关改动
  • 修复多次回归问题
  • 修复初始化变量缺失
  • 删除无效的权重初始化代码
  • 避免子类场景下错误触发延迟初始化

这些操作的核心目标只有一个:

确保 v0.18.0 在复杂真实工作流中的长期稳定运行

八、总结:为什么 v0.18.0 是“必须升级”的版本

代码地址:github.com/Comfy-Org/ComfyUI

如果你符合以下任一情况,v0.18.0 都是强烈推荐升级的版本

  • 显存 8G / 12G 甚至更低
  • 使用 LTX / WAN / 视频 VAE
  • 需要高分辨率或大批量推理
  • 关注推理稳定性与内存安全
  • 使用 API Nodes 或自动化部署
  • 进行模型训练或混合精度实验

ComfyUI v0.18.0 并不是功能堆砌型更新,而是一次深度“工程级进化”。

Read more

一文读懂VR/AR/MR:小白也能分清的虚实交互技术

一文读懂VR/AR/MR:小白也能分清的虚实交互技术

目录 * 前言 * 一、逐个击破 —— 三种技术的 “大白话” 解读 * 1.1 VR(虚拟现实):钻进 “虚拟世界” 不出来 * 1.2 AR(增强现实):给 “现实世界” 加层 “滤镜” * 1.3 MR(混合现实):在 “现实里” 玩 “虚拟物件” * 二、核心区别大对比 —— 一张表 + 一张图看懂 * 2.1 对比表格 * 2.2 可视化对比图(核心区别一目了然) * 三、避坑指南 —— 小白最容易混淆的 2 个误区 * 3.1 误区 1:

基于 LangChain 实现数据库问答机器人

基于 LangChain 实现数据库问答机器人

基于 LangChain 实现数据库问答机器人 * 一、简介 * 二、应用场景 * 三、实战案例 * 1、需求说明 * 2、实现思路 * 3、对应源码 一、简介 在 Retrieval 或者 ReACT 的一些场景中,常常需要数据库与人工智能结合。而 LangChain 本身就封装了许多相关的内容,在其官方文档-SQL 能力中,也有非常好的示例。 二、应用场景 在未出现人工智能,如果想要完成数据查询与数据分析的工作,则需要相关人员有相应的数据库的功底,而在 LangChain 结合大语言模型的过程中,应对这些问题则相当轻松——写清晰的提示词即可。 * 生成将基于自然语言问题运行的查询。 在传统的工作流程中,如果想要在数据库中搜索一些信息,那么就必须要掌握相应的数据库技术,比如 SQL 语句查询等,但是其本身有很高的学习成本。如果能用自然语言代替这个过程,则任何人都无需学习 SQL

Flutter 三方库 arcade 的鸿蒙化适配指南 - 实现高性能的端侧 Web 框架、支持轻量级 HTTP 路由分发与服务端逻辑集成

Flutter 三方库 arcade 的鸿蒙化适配指南 - 实现高性能的端侧 Web 框架、支持轻量级 HTTP 路由分发与服务端逻辑集成

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 arcade 的鸿蒙化适配指南 - 实现高性能的端侧 Web 框架、支持轻量级 HTTP 路由分发与服务端逻辑集成 前言 在进行 Flutter for OpenHarmony 的全栈式开发或特定的边缘计算场景,我们有时需要在鸿蒙应用内部直接启动一个功能完备但又极其轻量的单文件 Web 服务器。arcade 是一个主打微核心设计的 Dart 服务端框架。它能让你在鸿蒙真机上以最少的内存占用,快速运行起一套处理 REST 请求的逻辑中心。本文将指导大家如何在鸿蒙端利用该框架构建微服务。 一、原理解析 / 概念介绍 1.1 基础原理 arcade 采用了非阻塞式的 IO 事件循环架构。它通过直接包装 dart:io 的 HttpServer,提供了一套高度流式(

OpenClaw对接飞书机器人高频踩坑实战指南:从插件安装到回调配对全解析

前言 当前企业办公场景中,将轻量级AI框架OpenClaw与飞书机器人结合,能够快速实现智能交互、流程自动化等功能。然而,在实际对接过程中,开发者常常因权限配置、环境依赖、回调设置等细节问题陷入反复试错。本文以“问题解决”为核心,梳理了10个典型踩坑点,每个问题均配套原因分析、排查步骤和实操案例。同时,补充高效调试技巧与功能扩展建议,帮助开发者系统性地定位并解决对接障碍,提升落地效率。所有案例基于Windows 11环境、OpenClaw最新稳定版及飞书开放平台最新界面验证,解决方案可直接复用。 一、前置准备(快速自查) 为避免基础环境问题浪费时间,建议在开始前确认以下三点: * OpenClaw已正确安装,终端执行 openclaw -v 可查看版本(建议使用最新版,旧版本可能存在插件兼容风险)。 * Node.js版本不低于v14,npm版本不低于v6,通过 node -v 和 npm -v 验证,防止因依赖版本过低导致插件安装失败。 * 飞书账号需具备企业开发者权限(企业账号需管理员授权,个人账号默认具备)