从 Python 地狱到 ComfyUI 成功启动:一次完整的 Windows AIGC 环境排错实录

从 Python 地狱到 ComfyUI 成功启动:一次完整的 Windows AIGC 环境排错实录

前言

在 Windows 平台部署 ComfyUI 时,很多用户都会遇到类似问题:
Python 已安装、CUDA 驱动正常、显卡也能识别,但 ComfyUI 仍然无法正常启动,或在启动器与命令行之间反复报错。

这些问题往往并非某一步操作失误,而是 Python 版本不一致、CUDA 与 PyTorch 构建不匹配,以及启动器未正确使用虚拟环境 等因素叠加造成的结果。

本文将围绕 ComfyUI + 绘世启动器 的典型使用场景,系统梳理以下三个高频问题:

  • Python 多版本共存导致的环境错位
  • CUDA / PyTorch 无法正确识别 GPU
  • 启动器与命令行运行环境不一致

并给出 可复现、可验证、适合新手操作的解决方案,帮助你在 Windows 环境下,先把 ComfyUI 的基础运行环境彻底跑稳。

本文聚焦基础python环境配置问题,插件与扩展相关内容将放在后续文章中单独说明。

在这里插入图片描述

本次实际使用的组合是:

  • 绘世启动器
  • ComfyUI 便携包(ComfyUI-aki-v3)
  • NVIDIA 显卡环境(CUDA)
  • PyTorch(CUDA 版本)
  • GitHub 插件体系(Impact-Pack / SAM2)

这些组件单独使用时问题不大,但一旦组合在一起,就会出现一个典型问题:
每一个工具都假设“系统环境是干净且唯一的”,而现实恰恰相反。

例如:

  • Python 工具默认认为:系统里只有一个 Python
  • 启动器默认认为:系统 Python 就是运行 Python
  • PyTorch 默认认为:安装它的 Python 就是运行它的 Python
  • GitHub 插件默认认为:网络环境稳定、GitHub 可直连

这些“合理但不现实”的默认假设,在同一台 Windows 机器上叠加后,最终导致了一系列看似无关、实则强相关的问题集中爆发,包括:

  • Python 版本混乱
  • CUDA / PyTorch 无法识别
  • 启动器与命令行行为不一致
  • 插件安装过程中 GitHub 克隆反复失败

因此,本次环境“全面崩溃”的核心原因并不是操作失误,而是:

多个工具在同一环境中叠加运行,而它们都默认用户的系统是“干净的”。

理解这一点,是后续所有问题能够被逐一拆解和解决的前提。


二、问题一:Python 版本混乱(3.10 / 3.11 / 3.14 冲突)

在所有问题中,Python 版本混乱是第一个、也是最致命的根因
后续出现的 PyTorch、CUDA、插件安装异常,本质上都可以追溯到这一点。

2.1 现象表现

在实际排查过程中,最让人迷惑的不是报错本身,而是**“每个地方看到的 Python 版本都不一样”**:

  • 在 PowerShell / CMD 中执行 python -V,显示的是 Python 3.14
  • 进入 ComfyUI 自带的 venv 后,python -V 却是 Python 3.10
  • 绘世启动器的环境检测中,显示的 Python 与命令行结果不一致
  • PyTorch 安装成功,但运行时却出现:
    • 模块找不到
    • CUDA 不可用
    • 运行路径与安装路径不一致

这些现象单独看都不算“致命错误”,但组合在一起,就会让人产生一种错觉:
“明明都装好了,为什么就是跑不起来?”

2.2 核心原因

问题的根本并不复杂,但非常典型——Windows 下多 Python 共存 + 默认 PATH 机制

具体来说,核心原因有三点:

  1. Windows 的 PATH 中存在多个 Python
    • 系统 Python(可能是 3.14)
    • 其他软件自带的 Python
    • ComfyUI 实际需要使用的 Python 3.10
  2. 启动器默认调用的是“系统 Python”
    • 启动器并不会自动识别 venv
    • 如果不手动指定,它只会从 PATH 中找第一个 python.exe
  3. ComfyUI 对 Python 版本是“有要求的”
    • 当前稳定版本的 ComfyUI + PyTorch 生态,明确推荐 Python 3.10
    • 使用 3.11 / 3.14 虽然可能安装成功,但极易在运行期出问题

这就造成了一个典型错位:

你以为你在用 venv 的 Python 3.10,
但启动器实际上还在调用系统里的 Python 3.14。

2.3 解决方案

解决思路只有一个:彻底让“运行 Python”与“预期 Python”对齐

具体操作步骤如下:

  1. 单独安装 Python 3.10
    • 不要覆盖系统 Python
    • 指定一个清晰、固定的安装目录
  2. 使用 venv 进行环境隔离
    • 所有依赖(PyTorch、ComfyUI 插件)只安装在 venv 内
    • 不再向系统 Python 安装任何依赖
  3. 在绘世启动器中手动指定 Python 路径(关键步骤)

将启动器中的 Python 路径明确设置为:

E:\Aicg\Comfyui\ComfyUI-aki-v3\venv\Scripts\python.exe 

这一操作的意义在于:

  • 强制启动器使用 venv 的 Python
  • 避免 PATH 顺序、系统环境变量带来的不确定性
  • 确保 PyTorch、CUDA、插件全部运行在同一解释器下

在完成这一步之后,Python 相关的“玄学问题”基本会一次性消失

2.4 关键经验总结

这次踩坑之后,有一个经验非常值得反复强调:

永远不要相信系统 python,要相信 venv。

在 Windows + 深度学习 + 启动器 + 插件生态的组合下:

  • 系统 Python 只适合“存在”
  • venv 才适合“运行”
  • 启动器不做强制约束,就必须由使用者来“钉死路径”

这是后续所有问题能够继续排查和解决的前提条件。

在这里插入图片描述

三、问题二:CUDA / PyTorch 版本不匹配报错

如果说 Python 版本混乱 是“地基问题”,
那么 CUDA / PyTorch 不匹配,就是在地基不稳的情况下继续往上盖楼,最终必然塌。

这一问题在 Windows + NVIDIA 显卡 + 启动器环境中极其常见。

3.1 现象表现

在排查过程中,出现了以下典型现象:

  • 绘世启动器环境检测中提示:CUDA 无效
  • 在 Python 中执行:
import torch torch.cuda.is_available() 

返回结果为:

False 
  • 但从硬件层面来看:
    • 显卡型号明确:RTX 4070 Laptop
    • NVIDIA 驱动已安装
    • 系统层面 GPU 工作正常

也就是说,系统“看得到 GPU”,但 PyTorch “用不到 GPU”

3.2 核心原因

这类问题通常不会只有一个原因,而是两个常见错误叠加导致的:

原因一:PyTorch 安装在“错误的 Python 环境”
  • 系统 Python ≠ venv Python
  • PyTorch 可能被装在:
    • 系统 Python
    • 其他软件自带 Python
  • 但 ComfyUI 实际运行的是 venv 内的 Python

结果就是:

你安装了 PyTorch,但运行时用的不是它所在的解释器
原因二:CUDA 版本与 PyTorch 不匹配
  • PyTorch 的 CUDA 是内置运行时(不是系统 CUDA Toolkit)
  • 不同 PyTorch 版本对应不同 CUDA 构建:
    • cu118
    • cu121
    • cpu-only

如果:

  • 安装了 CPU 版 Torch
  • 安装了 CUDA 版本,但与显卡 / 驱动不兼容

都会导致 cuda.is_available() == False

3.3 解决方案

解决原则只有一句话:

在 venv 中,显式安装“与显卡和驱动匹配的 CUDA 版 PyTorch”。

具体操作如下。

第一步:确保已经进入 venv
E:\Aicg\Comfyui\ComfyUI-aki-v3\venv\Scripts\activate 
第二步:安装 CUDA 版 PyTorch(以 CUDA 12.1 为例)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 

说明:

  • 不要用默认 PyPI
  • 不要让 pip 自行判断
  • 明确指定 PyTorch 官方 CUDA 构建源
第三步:验证安装结果
python -c "import torch; print(torch.__version__); print(torch.cuda.is_available())" 

期望输出结果为:

  • PyTorch 版本号正常
  • torch.cuda.is_available() 返回 True

3.4 结果

在完成上述操作后,环境状态恢复正常:

  • CUDA 成功启用
  • PyTorch 正确识别 GPU
  • 显卡信息显示为:RTX 4070 Laptop
  • ComfyUI 推理阶段不再回退到 CPU

至此,计算层的问题被彻底解决,后续插件与节点的问题,才有继续排查的基础。


四、问题三:启动器使用了“错误的 Python”

在完成 Python 版本与 PyTorch / CUDA 的修复之后,表面上看环境已经“能跑了”,但一个新的问题随之出现:

命令行可以正常启动 ComfyUI,但启动器的一键启动却反复失败。

这一现象往往会让人误判问题已经回到 CUDA 或 PyTorch,其实完全不是。

4.1 现象

具体表现为:

  • 在 venv 环境中,通过命令行手动执行 python main.py,ComfyUI 可以正常启动
  • 浏览器可以访问 http://127.0.0.1:8188
  • 但使用绘世启动器的 一键启动
    • 环境检测反复报错
    • 提示 Python / CUDA 异常
    • 与命令行运行结果明显不一致

换句话说,同一套代码,在不同入口下表现完全不同

4.2 原因

原因并不复杂,但非常容易被忽略:

启动器默认调用的是“系统 Python”,而不是 venv 中的 Python。

即使:

  • venv 已经正确创建
  • PyTorch / CUDA 已在 venv 中配置完成
  • 命令行明确使用的是 venv Python

只要启动器没有被显式告知:

“你应该用哪个 python.exe”

它就会继续从系统 PATH 中寻找默认 Python(本例中为 Python 3.14),从而再次造成环境错位。

这也是为什么会出现:

  • 启动器报错
  • 命令行却一切正常

两者并不在同一个 Python 运行环境中

4.3 解决方案

解决这一问题的关键在于:
不要试图“让启动器自己判断”,而是直接强制指定路径。

具体操作步骤如下:

  1. 启用绘世启动器的「专家模式」
  2. 在高级设置中,手动配置:
    • Python 路径覆盖
    • Git 路径覆盖(后续插件安装依赖)

其中,Python 路径必须明确指向 ComfyUI 所使用的 venv:

E:\Aicg\Comfyui\ComfyUI-aki-v3\venv\Scripts\python.exe 

这一设置的效果是:

  • 启动器不再使用系统 Python
  • 所有检测、启动、插件安装行为,全部在 venv 中执行
  • 命令行与启动器的行为彻底对齐

4.4 关键结论

这一步完成后,可以得到一个非常重要的结论:

启动器 ≠ venv,必须手动对齐它们。

启动器只是一个“入口工具”,并不会自动理解你的 Python 隔离策略。
在多 Python、多环境并存的 Windows 系统中:

  • 不显式指定路径 = 不可控
  • 一键启动想稳定,必须先把“解释器”钉死

这一点解决之后,后续所有插件、依赖与网络问题,才有继续讨论的意义。


总结

在 Windows 平台使用 ComfyUI 时,大多数启动失败或环境异常问题,最终都可以归结为三个核心原因:

  • Python 版本未统一,运行环境发生错位
  • PyTorch 未安装正确的 CUDA 构建版本
  • 启动器未显式使用虚拟环境中的 Python

只要做到以下几点,基础环境基本可以稳定运行:

  • 使用 Python 3.10,并通过 venv 进行环境隔离
  • 在虚拟环境中安装匹配显卡驱动的 CUDA 版 PyTorch
  • 在绘世启动器中明确指定虚拟环境的 Python 路径

完成以上配置后,ComfyUI 应能够正常启动并识别 GPU,满足日常使用与基础工作流运行需求。

在基础环境稳定的前提下,再逐步引入插件和复杂节点,能够显著降低后续排错成本。
插件相关的问题与安装思路,将在后续文章中继续整理说明。
comfy插件体系与git解析

Read more

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

AppOS:始于 Mac,却远不止于 Mac。跟随 AppOS一起探索更广阔的 AI 数字生活。 OpenClaw 是 Moltbot/Clawdbot 的最新正式名称。经过版本迭代与改名后,2026年统一以「OpenClaw」作为官方名称,核心定位是通过自然语言指令,替代人工完成流程化、重复性工作,无需用户掌握编程技能,适配多场景自动化需求。 该项目经历了多次更名,Clawdbot → Moltbot → OpenClaw(当前名称) # OpenClaw 是什么? OpenClaw 是一个开源的个人 AI 助手平台。 简单来说,它是一个可以将你自己的 AI 助手接入你已经在用的即时通讯工具(Telegram、WhatsApp、飞书等)的系统。你可以自己挑选 AI 模型进行连接,添加各种工具和技能(如飞书等),构建专属工作流。说白了如果应用的够好,它就是一个能帮你干活的“

OpenClaw 都在排队养,你还在云端白嫖?手把手教你用 Python 搭建本地 AI 智能体(小白也能养自己的小龙虾)

OpenClaw 都在排队养,你还在云端白嫖?手把手教你用 Python 搭建本地 AI 智能体(小白也能养自己的小龙虾)

🦞 长文警告! 📜 文章目录(点击跳转,这波操作稳如老狗) 1. 前言:别再当云端 AI 的韭菜了,把“小龙虾”养在自己家 2. 第一步:给电脑装个“胃”——下载安装 Python(含官网地址) 3. 第二步:请个本地“大脑”——Ollama + Qwen 模型(白嫖党狂喜) 4. 第三步:搭个“龙虾笼子”——安装 OpenClaw(附项目地址) 5. 第四步:用 Python 写个“传话筒”,让你的小龙虾听你指挥 6. 第五步:第一次对话——你的本地贾维斯上线 7. 总结:白嫖虽好,但别让龙虾把你的电脑“钳”

构建基于Go语言的高性能命令行AI对话客户端:从环境部署到核心实现

构建基于Go语言的高性能命令行AI对话客户端:从环境部署到核心实现

前言 在现代软件开发领域,Go语言凭借其卓越的并发处理能力、静态类型安全以及高效的编译速度,已成为构建命令行工具(CLI)的首选语言之一。本文将详细阐述如何在Ubuntu Linux环境下部署Go开发环境,并结合蓝耘(Lanyun)提供的DeepSeek大模型API,手写一个支持多轮对话、上下文记忆的智能终端聊天工具。 一、 基础运行环境的准备与构建 任何上层应用的稳健运行都离不开坚实的底层系统支持。本次部署的目标环境为Ubuntu LTS系列(20.04/22.04/24.04),这些长期支持版本保证了系统库的稳定性与安全性。硬件层面,建议配置至少1GB的内存与5GB的磁盘空间,以满足编译器运行及依赖包缓存的需求。 1. 系统包索引更新与系统升级 在进行任何开发工具安装之前,首要任务是确保操作系统的软件包索引与现有软件处于最新状态。这不仅能修复已知的安全漏洞,还能避免因依赖库版本过旧导致的编译错误。 执行系统更新操作: sudoapt update &&sudoapt upgrade -y 该指令分为两部分:apt update 用于从软件源服务器获取最新的软件包列

保姆级教程:从零搭建你的第一个AI Agent

保姆级教程:从零搭建你的第一个AI Agent

保姆级教程:从零搭建你的第一个 AI Agent(附完整可运行代码) 手把手教你,用 Python 在 2 小时内构建一个能自主规划、调用工具、完成任务的 AI Agent 预计完成时间: 2 小时 所需技能: 基础 Python、会用命令行 适合人群: 想入门 AI Agent 开发的同学,不限工作年限 前言:为什么 2026 年你必须懂 Agent? 如果说 2024 年是大模型的元年,那 2026 年就是 AI Agent 的爆发年。 现在的 AI 已经不只是"聊天机器人"了——它开始接管我们的