Stable Diffusion Windows本地部署超详细教程(手动+自动+整合包三种方式)

Stable Diffusion Windows本地部署超详细教程(手动+自动+整合包三种方式)

Stable Diffusion Windows 本地部署超详细教程 (手动 + 自动 + 整合包三种方式)

一、引言

我们可以通过官方网站 Stability AI,以及 Dream Studio、Replicate、Playground AI 、Baseten 等网站在线体验 Stable Diffusion 的巨大威力。相比于集成在网络平台的 SD 或者其他 AI 绘画平台来说,自部署平台没有生成数量的限制,不用花钱,不用被 NSFW 约束,生成时间快,不用排队,自由度高,而且功能完整,插件丰富,可以调试和个性化的地方也更多;更稳定,也更容易让 SD 变成生产力或者商业化使用。既然这样,那就自力更生,在本机上自己部署一个,可以随心所欲地玩图。

二、Stable Diffusion 安装

2.1 安装前的准备

现有深度学习训练和部署环境在硬件上一般基于 Nvidia GPU,在底层需要显卡驱动和 CUDA 工具包(需要包含配套版本的 cuDNN),在应用软件层面需要 Python 编译和解释器,以及基于 Python 的深度学习框架(如 Pytorch、TensorFlow 等)。同时,为了方便代码自动下载和程序模块化管理,通常还需要安装 git 和 conda 软件。笔者(Sheex2012)主机配备了 RTX 4070Ti 12G 显卡,并事先安装了 CUDA 12.1,Python 3.11.6,git 2.44,Pytorch 2.1.2,能够满足 Stable Diffusion 环境要求。本文重点聚焦 Stable Diffusion 推理程序的部署,硬件需求确认和基础软件的安装这里不再赘述。

2.2 下载和部署 Stable Diffusion

我们从 Stability.AI 的 github 官方开源 Stability.AI Stablediffusion 下载源码:

git clone https://github.com/Stability-AI/stablediffusion.git 

当然,也可以从网页上以下载源码 ZIP 包,解压缩到本地。

源码下载完成后,接下来需要安装项目的依赖项:

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple  

然后从 huggingface 下载预训练模型 v2-1_768-ema-pruned.ckpt,并存放到 checkpoints 文件夹中。

2.3 运行 Stable Diffusion

部署完成后,运行下述脚本,生成图片:

python ./scripts/txt2img.py --prompt "a professional photograph of an astronaut riding a horse" --ckpt ./checkpoints/v2-1\_768-ema-pruned.ckpt --config ./configs/stable-diffusion/v2-inference-v.yaml --H 768 --W 768 

这个应该是目录结构的问题,将 ldm 拷贝 / 移动到 script 文件夹,再来一次,不出意外,还是有点小意外,内存不够了:

torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 9.49 GiB. GPU 0 has a total capacty of 11.99 GiB of which 0 bytes is free. Of the allocated memory 14.77 GiB is allocated by PyTorch, and 9.52 GiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting max\_split\_size\_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH\_CUDA\_ALLOC\_CONF 

那就把图像的尺寸调整成 512x512,问题解决了。

这是生成的图片(存放在 outputs\txt2img-samples 文件夹中):

三、Stable Diffusion WebUI 安装

Stable Diffusion 只是提供一个模型,提供基础的文本分析、特征提取、图片生成这些核心功能,但自身是没有可视化 UI 的,用起来就是各种文件加命令行。其中流传最广、功能最强也是被公认最为方便的,就是由越南超人 AUTOMATIC1111 开发的 WebUI,即大名鼎鼎的 Stable Diffusion WebUI。Stable Diffusion WebUI 集成了大量代码层面的繁琐应用,将 Stable Diffusion 的各项绘图参数转化成可视化的选项数值和操控按钮,用户可以直接通过 Web 页面使用 Stable Diffusion。Stable Diffusion WebUI 是一个最流行的开源 Stable Diffusion 整合程序,其核心功能是文生图和图生图,这也是 Stable Diffusion 的核心能力。Stable Diffusion WebUI 的其它功能,比如 ControlNet、高清放大、模型训练等等都是其它第三方开发的,有的已经内置到 WebUI 中,随着 WebUI 的发布而发布,有的还需要用户手动安装。

3.1 手动安装

我们先手动方式一步一步安装,从中体验一下其中的繁琐(其实,这对于从事深度学习的相关技术人员来说是常规操作)。

首先,从 github 上下载源码:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git 

其次,下载安装 Stable Diffusion WebUI 的依赖项:

cd stable-diffusion-webui pip install -r requirements\_versions.txt -i https://pypi.tuna.tsinghua.edu.cn/simple  pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple  

依赖项成功安装后,还是从 huggingface 下载 v1-5-pruned-emaonly.safetensors 预训练模型,放置到 models\Stable-diffusion 文件夹。

python webui.py 

命令行窗口显示了模型加载运行过程,这里一共花了 49.2 秒。

进入http://127.0.0.1:7860网站,输入提示词:

反向提示词:

点击,Generate 按钮,3.9 秒后,生成一幅女孩肖像画。GPU 占用 3.8G 左右。

如果觉得全是英文的界面操作起来不够方便,可以:

1)从 Stable-diffusion-webui 的汉化扩展下载汉化语言包,把 "l

3.2 自动安装

自动安装的方式,极大地简化了部署流程,对于不太熟悉命令行操作和复杂环境配置的新手来说,是非常友好的选择。这里以使用 “StableDiffusion-WebUI-Automatic-Installer” 脚本为例进行介绍。

首先,下载 “StableDiffusion-WebUI-Automatic-Installer” 脚本。你可以在相关的开源平台找到它,比如 github(链接:https://github.com/cmdr2/stable-diffusion-ui) 。下载完成后,解压到你希望安装 Stable Diffusion WebUI 的目录。

然后,进入解压后的目录,找到并双击运行 “webui-user.bat” 文件(如果是 Linux 或 Mac 系统,则运行对应的.sh 文件)。这个批处理文件会自动检测你的系统环境,安装所需的 Python 版本、依赖库,下载 Stable Diffusion WebUI 的源码以及预训练模型等。在这个过程中,命令行窗口会显示安装的进度和相关信息。由于下载的内容较多,可能需要一些时间,请耐心等待。安装过程中可能会因为网络问题导致某些下载失败,你可以尝试多次运行 “webui-user.bat” 文件,它会自动检测哪些部分未成功安装并进行重试。

安装完成后,同样会自动打开浏览器并跳转到http://127.0.0.1:7860页面,此时你就可以像手动安装成功后一样,在 WebUI 界面中输入提示词进行 AI 绘画创作了。

3.3 整合包安装

Stable Diffusion 秋叶整合包是中国大神秋叶基于 Stable Diffusion WebUI 内核开发的整合包,内置了与电脑本身系统隔离的 Python 环境和 Git(包含了第三部分需要下载和安装的依赖项、github 依赖包、预训练模型以及相当多的插件)。可以忽略网络需求和 Python 环境的门槛,让更多人轻松地使用 Stable Diffusion WebUI。超简单一键安装,无任何使用门槛,完全免费使用,支持 Nvdia 全系列显卡。

  1. 配置要求
  • 系统:Windows 10 及以上系统
  • 显存最低 4G,建议使用 Nvidia 2060 显卡,显存 6GB 以上。内存至少是 8GB,而配备 16GB 或者以上内存,你会有更好的使用体验
  1. 下载文件
    下载到本地,最好不要有中文目录,整合包地址链接:链接:下载到本地,最好不要有中文目录,整合包地址链接:链接:https://pan.baidu.com/s/11e-upzehUb_qH5iuqVIBfg?
  2. 解压文件夹到本地,点击启动器
  3. 点击一键启动可以看到出现了命令行,稍等等几秒钟,会自动跳到 Web UI 页面。然后就可以在文本框中,输入指令来进行 AI 生图了。

四、总结

通过以上手动、自动和整合包三种方式,我们都能够在 Windows 系统上成功部署 Stable Diffusion WebUI。手动安装虽然步骤较为繁琐,但能让我们深入了解整个部署过程和相关技术细节,适合有一定技术基础和希望深入掌握的用户;自动安装借助脚本大大简化了流程,降低了部署难度,适合大部分普通用户;整合包安装则几乎做到了开箱即用,是最为便捷的方式,尤其适合对技术不太熟悉,只希望快速使用 Stable Diffusion 进行创作的用户。你可以根据自己的情况和需求选择适合的安装方式,开启你的 AI 绘画之旅。

效果展示:

在这里插入图片描述


在这里插入图片描述

Read more

从微博热搜到深度报告:实测 ToClaw 的信息检索与分析能力,AI 终于开始“先找再写”

从微博热搜到深度报告:实测 ToClaw 的信息检索与分析能力,AI 终于开始“先找再写”

现在做内容、做运营、做市场,最怕的不是没有灵感,而是信息流转得太快。一个热点从冒头到发酵,可能只需要几个小时;而从“看到热搜”到“形成一版可用分析”,往往要经历找榜单、翻链接、看评论、筛信息、做结构、再写结论一整套流程。很多人以为这件事的核心是写,其实真正耗时的,往往是前面的“找”和“判”。 这也是我为什么会特别想测 ToDesk 远程控制新上线的 ToClaw:如果它只是会写几段话,那其实不算新鲜;但如果它能围绕“热点分析”这个真实任务,把检索、筛选、归纳、生成这几个动作串起来,那它就不只是一个聊天入口,而更像是一个真正能进入工作流的 AI 助手。 而从这次实测来看,ToClaw 在这个场景里,确实给了我一点不一样的感觉。 一、开放式测试 为了看清 ToClaw 到底是在“生成”

Flutter 组件 pathfinding 的鸿蒙化适配实战 - 驾驭极致拓扑寻踪大坝、实现 OpenHarmony 分布式端高性能 AI 寻路、迷宫拓扑与工业级路径导航核方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 pathfinding 的鸿蒙化适配实战 - 驾驭极致拓扑寻踪大坝、实现 OpenHarmony 分布式端高性能 AI 寻路、迷宫拓扑与工业级路径导航核方案 前言 在鸿蒙(OpenHarmony)生态的分布式工业巡检、高性能游戏开发或者是对空间计算有极其严苛要求的 0308 批次智能仓储应用中。“复杂环境下的路径最优解计算与实时障碍避让维度”是衡量整个系统智慧化程度的最终质量门禁。面对包含数万个节点的网格地图、海量动态变化的货架坐标、甚至是由于跨设备同步产生的 0308 批次拓扑逻辑海洋。如果仅仅依靠简单的“直线欧式距离”或者是干瘪的广度优先搜索(BFS)。不仅会导致在处理大型复杂地图时让系统如同在逻辑废墟中盲人摸象。更会因为计算耗时指数级爆炸,让移动端在进行路径导航时瞬间陷入死机盲区。 我们需要一种“逻辑先行、代价建模”的空间演算艺术。 pathfinding 是一套专注于无缝整合全球公认顶级算法 A*、Dijkstra 以及二叉堆

2026 年 Python AI 大模型部署全攻略:本地运行 + API 服务 + Docker 封装

2026 年 Python AI 大模型部署全攻略:本地运行 + API 服务 + Docker 封装

随着开源大模型的爆发式增长,2026 年在本地与服务端部署 AI 大模型已成为开发者的核心技能。本文将从本地运行、API 服务化、Docker 容器封装三个维度,给出完整的生产级部署方案。 一、整体架构概览 开发调试 团队协作 生产交付 模型选择与下载 部署方式 本地直接运行 API 服务化 Docker 容器封装 llama.cpp / vLLM / Ollama FastAPI + vLLM / TGI Dockerfile + docker-compose 性能调优 监控与运维 二、模型选型与技术栈(2026 主流方案) 维度推荐方案适用场景本地推理llama.cpp / Ollama个人开发、低资源环境GPU 推理vLLM / TGI高并发、低延迟API 框架FastAPI轻量、高性能容器化Docker + NVIDIA Container Toolkit标准化部署编排docker-compose

API 调用基础:执行式AI必备网络请求知识

API 调用基础:执行式AI必备网络请求知识

API 调用基础:执行式AI必备网络请求知识 📝 本章学习目标:本章是入门认知部分,帮助零基础读者建立对AI Agent的初步认知。通过本章学习,你将全面掌握"API 调用基础:执行式AI必备网络请求知识"这一核心主题。 一、引言:为什么这个话题如此重要 在AI Agent快速发展的今天,API 调用基础:执行式AI必备网络请求知识已经成为每个开发者和研究者必须了解的核心知识。无论你是技术背景还是非技术背景,理解这一概念都将帮助你更好地把握AI时代的机遇。 1.1 背景与意义 💡 核心认知:AI Agent正在从"对话工具"进化为"执行引擎",能够主动完成任务、调用工具、与外部世界交互。这一变革正在深刻改变我们的工作和生活方式。 从2023年AutoGPT的横空出世,到如今百花齐放的Agent生态,短短一年多时间,执行式AI已经从概念走向落地。根据最新统计,全球AI Agent市场规模已突破百亿美元,年增长率超过100%