彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错
https://github.com/MixLabPro/comfyui-mixlab-nodes

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

在 ComfyUI 中安装 Mixlab Nodes 插件后,控制台显示其他节点正常,便 Whisper.available False。即使环境里安装了 openai-whisperfaster-whisper,问题依然可能存在。

Whisper.available False

本文将分享如何通过修改 __init__.py 进行深度 Debug,并修复 Whisper.py 中的路径逻辑漏洞。


1. 深度排查:让报错“开口说话”

Mixlab 的默认日志只提示 False,不显示原因。为了抓出真凶,我们需要修改插件的入口文件:

  • 文件路径custom_nodes\comfyui-mixlab-nodes\__init__.py
Win_ComfyUI\custom_nodes\comfyui-mixlab-nodes\__init__.py
  • 修改位置:约第 1455-1456 行(Whisper 检测块)。
  • 操作:将原本沉默的 except 块改为打印完整堆栈。

# 修改前 except Exception as e: logging.info('Whisper.available False') # 修改后 (增加 Traceback 打印) except Exception as e: import traceback logging.info(f'Whisper.available False. Reason: {e}') traceback.print_exc() 

修改后重启,控制台显露真凶:

FileNotFoundError: [WinError 3] 系统找不到指定的路径。: '...\\models\\whisper'


2. 核心原因:路径初始化崩溃

排查发现,该问题并非依赖缺失,而是 nodes/Whisper.py 的代码健壮性不足

  1. 代码在初始化时会强制扫描 models/whisper 文件夹。
  2. 如果用户尚未创建该目录,os.listdir() 会直接抛出异常导致模块加载失败。

3. 终极解决方案

第一步:手动创建目录

在你的 ComfyUI 的 /models 目录下,手动新建文件夹:whisper


第二步:修复源码逻辑漏洞

打开 custom_nodes\comfyui-mixlab-nodes\nodes\Whisper.py,在 model_sizes 扫描逻辑前加入自动创建目录的判断。

Win_ComfyUI\custom_nodes\comfyui-mixlab-nodes\nodes\Whisper.py

# 确保目录存在,防止 os.listdir 报错抛出 WinError 3 if not os.path.exists(whisper_model_path): os.makedirs(whisper_model_path) # 此时再执行扫描逻辑,即使文件夹为空也只会返回空列表,不会导致加载失败 model_sizes = [ d for d in os.listdir(whisper_model_path) if os.path.isdir(os.path.join(whisper_model_path, d)) and os.path.isfile(os.path.join(os.path.join(whisper_model_path, d), "config.json")) ] 

第三步:正确放置 CTranslate2 模型

由于代码检查 config.json,我们需要下载 Faster-Whisper 格式的模型(如 Systran/faster-whisper-tiny)。

https://huggingface.co/collections/Systran/faster-whisper
https://huggingface.co/Systran/faster-whisper-tiny/tree/main
# Download the model hf download Systran/faster-whisper-tiny
  • 工具:可以使用 hf-mirror 镜像下载。
  • 存放:将模型文件(model.bin, config.json 等)放在 models/whisper/faster-whisper-tiny/ 下。

正确的文件结构应该是:

H:\PythonProjects1\Win_ComfyUI\models\whisper\faster-whisper-tiny\ ├── config.json ├── model.bin ├── tokenizer.json ├── vocabulary.txt └── README.md (可选)

Mixlab 的这个节点通常支持以下两类模型:
• Faster-Whisper 模型:例如 tiny, base, small, medium, large-v3 的 CTranslate2 格式文件夹。
• OpenAI 原版模型:.pt 格式的文件。
可以先尝试方案 A,重启后看看控制台是否变成了 Whisper.available True。


确保环境里已经安装了 faster-whisper,接下来最关键的一步就是放置模型文件。由于代码逻辑里有一个硬性条件:模型文件夹内必须包含 config.json,这意味着它需要 Faster-Whisper (CTranslate2) 格式的模型。

如何获取并放置模型?

    • faster-whisper-tiny (体积小,速度极快)
    • faster-whisper-base (平衡性好)
    • faster-whisper-large-v3 (精度最高,中文识别强)
  1. 刷新节点:放好之后,你可以在 ComfyUI 中添加 Load Whisper Model ♾️Mixlab 节点,在下拉菜单里就能看到你刚放进去的文件夹名字了。

正确的文件结构:需要将下载的文件夹解压到 H:\PythonProjects1\Win_ComfyUI\models\whisper 目录下。结构必须如下所示: 

H:\PythonProjects1\Win_ComfyUI\models\whisper\ └── large-v3/ <-- 文件夹名随意,但里面必须有 json ├── config.json <-- 必须存在,否则节点识别不到 ├── model.bin ├── tokenizer.json └── vocabulary.json 

下载模型:

https://huggingface.co/Systran

你可以从 Hugging Face 的 Systran 页面 下载。常用的模型包括:



4. 验证修复

重启 ComfyUI 后查看控制台日志输出以验证修复:

Whisper.available

可以看到控制台显示 Whisper.available 后面没有 False(或者显示了 True),就说明模块已经绕过了路径检查,成功加载到了 ComfyUI 中。


5. 经验总结

在开发 ComfyUI 插件或维护 Python 环境(如 EPGF 框架)时:

  1. Debug 优先:修改 __init__.py 打印 traceback 是定位插件加载问题的万能钥匙。
  2. 路径防御性编程:使用 os.listdir 前必做 os.path.existsos.makedirs

博主: AITechLab

时间: 2026年1月16日


Read more

GLM-4v-9b实战指南:用llama.cpp GGUF格式在消费级GPU部署多模态模型

GLM-4v-9b实战指南:用llama.cpp GGUF格式在消费级GPU部署多模态模型 1. 为什么你需要关注GLM-4v-9b 你有没有遇到过这样的场景:一张密密麻麻的财务报表截图发到工作群,大家却没人愿意花十分钟手动抄录数据;或者客户发来一张手机拍的电路板照片,问“这个元件型号是什么”,你只能回个尴尬的微笑;又或者团队正在做竞品分析,需要从几十份PDF产品手册里快速提取图表信息——这些不是小问题,而是每天真实消耗工程师、运营、产品经理大量时间的“视觉理解黑洞”。 过去,这类任务要么靠人工硬啃,要么得调用API付费接口,响应慢、成本高、隐私难保障。直到2024年,智谱AI开源了glm-4v-9b——一个真正能在你自己的RTX 4090上跑起来的90亿参数多模态模型。它不只是一张“能看图说话”的新名片,而是把高分辨率图像理解能力,塞进了一张消费级显卡的显存里。 重点来了:它支持原生1120×1120输入,这意味着你不用再把一张A4扫描件缩成模糊小图上传;它对中文表格、小字号OCR、技术类图表的理解,在公开评测中直接超过了GPT-4-turbo和Claude 3 Opus;

使用 VS Code 与 GitHub Copilot 高效 Vibe Coding 指南

欢迎大家关注「几米宋」的微信公众号,公众号聚焦于云原生、AI、服务网格、工具教程、技术观察以及日常感悟等内容,更多精彩内容请访问个人网站 jimmysong.io。 📄 文章摘要 掌握 VS Code 与 GitHub Copilot 的高效开发技巧,提升你的编程体验与效率,开启愉快的 vibe coding 之旅。 🔗 在 jimmysong.io 上 阅读原文 体验更佳。 最近一段时间笔者试用了众多的 vibe coding(氛围编程)工具,但是试用了一圈后,最终还是选择了 VS Code 与 GitHub Copilot 的组合。不为别的,就是因为最得心应手、性价比最高、最有可扩展性。本文将从环境配置、工作空间和插件、界面布局、

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

项目简介 今天偶然发现了个堪称“赛博活佛”的AI网站,名叫Vheer。它的作风相当大方,里面绝大部分功能都直接免费敞开用,就问你服不服。 文生图、图生视频、智能修图这些主流AI功能一个不落。点开就能用。而且非常的大气,比如抠图,别的网站按张收费,它直接让你一口气传20张照片自动处理,完全免费,甚至你去花时间不需要注册。 它几乎移除了所有上手障碍。网站首页清晰地排列着各种功能,没有晦涩的术语。你想把文字变成图片,或者让静态照片动起来,点开对应的按钮,输入你的想法,结果很快就能呈现在你面前。整个过程简单得就像在用一款普通的手机APP。 食用指南 访问地址 传送地址 官网的免费会员上面写的几个非常吸引人的地方,第一没有任何水印,第二生成图片视频这些是没有任何数量上的限制,只有高级别的模型和高速通道不能使用(但是实测下来,生成的速度也是相当不错)。 网站也提供了一些订阅模式,可以使用更高级的模型,但是这些高级模型需要消耗算力点。根据自己的需要看是否订阅。 由于功能实在太多了,强烈建议亲手测试一下 操作与体验——文生图 官网光一个文生图的功能就折腾出来了40多个功能,除了

从GAN到ChatGPT:AIGC技术演进与实战应用指南

快速体验 在开始今天关于 从GAN到ChatGPT:AIGC技术演进与实战应用指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 从GAN到ChatGPT:AIGC技术演进与实战应用指南 技术背景:关键模型演进时间轴 2014年 - GAN横空出世 生成对抗网络(GAN)通过生成器与判别器的对抗训练,首次实现了高质量图像生成。核心突破在于: