Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程(AUTOMATIC1111 版)

本教程基于 Windows 系统,适合 AI 绘画爱好者或初学者,旨在帮助大家从零部署并运行本地的 Stable Diffusion 模型界面(Web UI)。我们将从克隆项目、配置环境到运行界面,并附上常见网络问题的解决方案。

一、准备工作

1. 安装依赖

  • Python 3.10.x
  • Git(推荐官网下载最新版)
  • 显卡驱动 + CUDA(NVIDIA 用户,建议驱动更新到最新版)

安装好后,确保 Python 和 Git 都加入了系统环境变量。


二、克隆项目仓库

使用如下命令克隆 AUTOMATIC1111 的 Web UI 项目:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git 

🚧 常见问题:OpenSSL SSL_read: Connection was reset, errno 10054

这是网络导致的 Git 连接失败问题。

解决方法:

关闭 Git 的 HTTPS 证书验证:

git config --global http.sslVerify false

然后重新执行 clone 命令即可成功。


三、运行项目

1. 进入项目目录,双击运行:

stable-diffusion-webui\webui-user.bat 

运行后会自动创建虚拟环境并下载依赖库。

🚧 问题:提示升级 pip?

解决方法:

根据提示复制升级命令,在新命令行中执行(路径根据你的安装位置可能不同):

H:\AI\stable-diffusion-webui\venv\Scripts\python.exe -m pip install--upgrade pip 

升级完成后,重新运行webui-user.bat


四、解决国内网络环境下载失败的问题

在首次运行时,WebUI 会自动安装一些依赖模型,例如:

  • gfpgan
  • clip
  • open-clip

若下载失败,你会在命令行中看到安装卡住或超时的报错,解决方案如下:

方法一:修改 pip 安装源为国内镜像

打开 stable-diffusion-webui\launch.py 文件,找到安装失败的部分。

例如:

run_pip(f"install {gfpgan_package}","gfpgan")

改为:

run_pip(f"install -i https://pypi.douban.com/simple/ {gfpgan_package}","gfpgan")

同样方式修改:

  • clip_package
  • open_clip_package

然后保存、关闭命令行,重新运行webui-user.bat


方法二:加速 GitHub 文件下载

如果卡在某个 GitHub 地址,可以用加速代理,例如:

"https://github.com/..."

改为:

"https://github.moeyy.xyz/https://github.com/..."
示例:在 launch.pylaunch_utils.py

找到类似以下函数:

defprepare_environment():

把里面涉及 GitHub 的 URL 全部加上加速前缀。


📌 文件找不到的情况

如果你找不到 launch.py,可能你的版本结构已经更新,请在 launch_utils.py 中查找对应的 run_pip(...) 语句并按相同方式修改(比如第 263、266、269 行)。


五、首次加载模型

第一次进入 WebUI 会自动下载一个默认模型(如 v1-5-pruned-emaonly.ckpt),文件较大(约 4GB),请耐心等待。

在这里插入图片描述


首次加载可能时间较长。你也可以自行下载 .ckpt.safetensors 模型放入以下目录:

stable-diffusion-webui\models\Stable-diffusion\ 

🚧 遇到模型加载失败:ProxyError 错误

如果你遇到类似如下错误信息:

ProxyError: ('Unable to connect to proxy', FileNotFoundError(2, 'No such file or directory')) 

并伴随类似:

requests.exceptions.ProxyError: (MaxRetryError("HTTPSConnectionPool(...): Max retries exceeded with url: /openai/clip-vit-large-patch14/resolve/main/vocab.json ...")) 

解决方法如下:

  1. 请关闭你之前为了下载模型使用的代理工具(包括系统代理或设置在 WebUI 中的代理参数)。
  2. 关闭命令行窗口,重新运行 webui-user.bat,程序会重新尝试使用正常方式连接 HuggingFace。

🌀 如果出现“卡住不动”的情况?

有时候你可能会发现命令行卡在某一步不动,长时间没有进度。

解决方法:

  • 直接关闭命令行窗口,重新运行 webui-user.bat,系统通常会从上次中断处继续下载或跳过已安装内容。

六、设置代理加速 HuggingFace 模型下载

为什么要设置?

很多用户在首次运行或切换模型时会遇到以下错误:

OSError: Can't load tokenizer for 'openai/clip-vit-large-patch14' 

说明系统在尝试联网下载 tokenizer 文件(如 vocab.json),但由于网络限制(如 HuggingFace 被墙),下载失败。


解决方法一:在 webui-user.bat 中设置代理

  1. 编辑 webui-user.bat 文件,在开头添加如下内容:
:: 启用代理(如 Clash 使用 HTTP 代理 7890 端口) set HTTP_PROXY=http://127.0.0.1:7890 set HTTPS_PROXY=http://127.0.0.1:7890 :: 如果你用的是 SOCKS5 代理(如 V2Ray、Trojan): :: set ALL_PROXY=socks5://127.0.0.1:1080 
  1. 保存并重新运行 webui-user.bat
✅ 一般配合 Clash 使用效果较好,默认本地端口为 7890

解决方法二:手动下载 CLIP Tokenizer 模型到本地

  1. 下载以下 4 个文件:
    • vocab.json
    • merges.txt
    • tokenizer_config.json
    • special_tokens_map.json
  2. 将上述 4 个文件全部放入该目录中。

打开 ldm\modules\encoders\modules.py,找到如下代码:

self.tokenizer = CLIPTokenizer.from_pretrained(version)

修改为:

self.tokenizer = CLIPTokenizer.from_pretrained("models/clip-vit-large-patch14")

在本地新建目录:

stable-diffusion-webui\models\clip-vit-large-patch14\ 

访问以下链接(如无法打开建议用代理):

https://huggingface.co/openai/clip-vit-large-patch14/tree/main 

这样就会从本地加载 tokenizer 文件,避免联网失败问题。

在这里插入图片描述

七、可选:更换模型

你可以将其他 .ckpt.safetensors 模型放入:

stable-diffusion-webui\models\Stable-diffusion\ 
在这里插入图片描述

然后在 Web UI 界面右上角下拉选择切换模型。


八、模型部署成功后的使用与测试

1. 访问 Web UI 界面

当命令行中显示如下信息:

Running on local URL: http://127.0.0.1:7860 
在这里插入图片描述

打开浏览器,输入该地址访问 Web UI 页面。


2. 输入测试 Prompt 生成图片

在界面中,你会看到一个文本输入框,称为 “Prompt” 输入框。

在这里插入图片描述

在此输入框中,试试以下测试内容:

Official portrait of Groot as substitute teacher 

3. 配置参数建议(可选)

  • 采样器(Sampler):默认即可,如 Euler a、DDIM 等。
  • 步数(Steps):建议设置 20~30,数值越大图片细节越丰富,但生成时间也更长。
  • 分辨率(Width/Height):推荐 512x512,显卡显存有限可适当调低。
  • 种子(Seed):默认随机,想要固定结果可指定具体数值。
  • CFG Scale(引导尺度):7~9 之间通常表现较好,控制对 Prompt 的遵守程度。

4. 点击“生成”按钮

等待几秒至几十秒(具体时间与显卡性能相关),页面会自动显示生成的图像。

在这里插入图片描述

附录、常见模型下载失败的解决方法汇总

问题原因解决方法
OSError: Can't load tokenizer for openai/clip-vit-large-patch14HuggingFace 网络不通本地下载 tokenizer 或配置代理
ProxyError 报错系统代理配置残留关闭系统代理,清理环境变量
命令行卡住不动下载缓慢或被墙Ctrl+C 后重启、断点续传有效
xformers 报错未安装非必要模块可忽略,或通过 pip 安装

Read more

2023年电赛H题(信号分离装置)-FPGA+stm32解法

2023年电赛H题(信号分离装置)-FPGA+stm32解法

目录 前言 题目 解题思路 基本框架 代码思路 第一部分(FPGA的FIFO以及串口发送接收) 1.FIFO 2.(FPGA串口发送) 3.FPGA串口接收 4.总结 第二部分(stm32接收数据进行FFT识别波形以及频率并发送) 1.stm32串口接收 2.stm32进行FFT 3.stm32串口发送 第三部分(FPGA得到波形与频率后生成波形) 第四部分(FPGA锁相) 1.鉴相 2.环路滤波 3.反馈 第五部分(DAC输出) 第六部分(移相) 1.按键消抖 2.按键设置相位差 3.数码管显示相位 第七部分(FPGA代码总结) 后记 前言 本文章除开要求一使用的增益为一的加法器以外,其余皆由FPGA+

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案 前言:为什么选择 LazyLLM 构建多 Agent 大模型应用? LazyLLM 作为低代码构建多 Agent 大模型应用的开发工具,可大幅降低大模型应用的开发与部署门槛。本文聚焦其在豆包模型的落地实践,将从源码部署豆包文本模型的完整配置步骤入手,延伸至官方 WebModule 启动可视化 Web 界面的实操流程,并配套精准性、简洁度等多维度的部署测试说明,为开发者提供可直接对照的实操指南,助力高效完成豆包模型在 LazyLLM 框架下的部署与验证。 LazyLLM 整体架构解析:三层联动的多 Agent 运行体系 LazyLLM 的架构分为三层级递进结构,各层级分工明确且联动协同,实现从应用开发到落地执行的全流程覆盖:上层(LazyPlatform AI 大模型应用开发平台):核心含应用编排平台以可视化编排、发布、回流、调优的闭环完成应用构建迭代与平台管理模块通过租户、权限管理支撑多用户运维,是开发者的高效开发管理入口中层(

基于FPGA的千兆以太网源代码实现与设计实战

本文还有配套的精品资源,点击获取 简介:本设计基于FPGA平台,实现千兆以太网的数据传输功能,适用于高速网络通信场景,如视频信号的高效传输。通过Verilog等硬件描述语言,构建包括以太网物理层(PHY)、MAC控制器、Wishbone总线接口等核心模块,并提供完整的测试平台与行为模型用于仿真验证。配套的使用说明指导开发者在特定FPGA平台上配置和部署该系统,具有较强的工程实用性。该方案广泛应用于嵌入式系统、工业控制和高性能数据传输领域,是掌握FPGA网络接口开发的重要实践项目。 1. FPGA千兆以太网设计概述 随着高速通信需求的不断增长,基于FPGA实现千兆以太网接口已成为嵌入式系统、工业控制和视频传输等领域的重要技术手段。本章从系统架构出发,阐述FPGA在千兆以太网设计中的核心优势——强大的并行处理能力、灵活的可重构性以及极低的数据处理延迟。重点介绍关键功能模块的划分与协作机制,包括PHY层接口、MAC控制器、Wishbone总线桥接及数据包处理引擎,并结合IEEE 802.3标准解析千兆以太网帧结构与物理层规范。同时,明确顶层模块( eth_top )的数据流向与控制

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

摘要: LazyLLM 是商汤大装置推出的开源低代码框架,作为构建和优化多 Agent 应用的一站式开发框架,覆盖应用搭建、数据准备、模型部署、微调、评测等全流程开发环节,提供丰富的工具支持。其以模块化设计打破传统开发壁垒,通过数据流驱动重构开发逻辑,能让开发者用极简代码实现工业级复杂 AI 应用,摆脱冗余编码束缚,聚焦核心业务场景,降低 AI 应用构建成本并支持持续迭代优化。堪称 AI 开发者的 “效率神器”,其技术普惠理念为 AI 开发领域带来新的实践范式,推动了更高效的开发模式。本文将以Python编程为切入点,带你深入了解LazyLLM框架。 LazyLLM 是构建和优化多 Agent 应用的一站式开发工具,为应用开发过程中的全部环节(包括应用搭建、数据准备、模型部署、模型微调、评测等)提供了大量的工具,协助开发者用极低的成本构建 AI 应用,并可以持续地迭代优化效果。 LazyLLM作为商汤大装置推出的开源低代码框架,简直是AI开发者的“效率神器”