Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程(AUTOMATIC1111 版)

本教程基于 Windows 系统,适合 AI 绘画爱好者或初学者,旨在帮助大家从零部署并运行本地的 Stable Diffusion 模型界面(Web UI)。我们将从克隆项目、配置环境到运行界面,并附上常见网络问题的解决方案。

一、准备工作

1. 安装依赖

  • Python 3.10.x
  • Git(推荐官网下载最新版)
  • 显卡驱动 + CUDA(NVIDIA 用户,建议驱动更新到最新版)

安装好后,确保 Python 和 Git 都加入了系统环境变量。


二、克隆项目仓库

使用如下命令克隆 AUTOMATIC1111 的 Web UI 项目:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git 

🚧 常见问题:OpenSSL SSL_read: Connection was reset, errno 10054

这是网络导致的 Git 连接失败问题。

解决方法:

关闭 Git 的 HTTPS 证书验证:

git config --global http.sslVerify false

然后重新执行 clone 命令即可成功。


三、运行项目

1. 进入项目目录,双击运行:

stable-diffusion-webui\webui-user.bat 

运行后会自动创建虚拟环境并下载依赖库。

🚧 问题:提示升级 pip?

解决方法:

根据提示复制升级命令,在新命令行中执行(路径根据你的安装位置可能不同):

H:\AI\stable-diffusion-webui\venv\Scripts\python.exe -m pip install--upgrade pip 

升级完成后,重新运行webui-user.bat


四、解决国内网络环境下载失败的问题

在首次运行时,WebUI 会自动安装一些依赖模型,例如:

  • gfpgan
  • clip
  • open-clip

若下载失败,你会在命令行中看到安装卡住或超时的报错,解决方案如下:

方法一:修改 pip 安装源为国内镜像

打开 stable-diffusion-webui\launch.py 文件,找到安装失败的部分。

例如:

run_pip(f"install {gfpgan_package}","gfpgan")

改为:

run_pip(f"install -i https://pypi.douban.com/simple/ {gfpgan_package}","gfpgan")

同样方式修改:

  • clip_package
  • open_clip_package

然后保存、关闭命令行,重新运行webui-user.bat


方法二:加速 GitHub 文件下载

如果卡在某个 GitHub 地址,可以用加速代理,例如:

"https://github.com/..."

改为:

"https://github.moeyy.xyz/https://github.com/..."
示例:在 launch.pylaunch_utils.py

找到类似以下函数:

defprepare_environment():

把里面涉及 GitHub 的 URL 全部加上加速前缀。


📌 文件找不到的情况

如果你找不到 launch.py,可能你的版本结构已经更新,请在 launch_utils.py 中查找对应的 run_pip(...) 语句并按相同方式修改(比如第 263、266、269 行)。


五、首次加载模型

第一次进入 WebUI 会自动下载一个默认模型(如 v1-5-pruned-emaonly.ckpt),文件较大(约 4GB),请耐心等待。

在这里插入图片描述


首次加载可能时间较长。你也可以自行下载 .ckpt.safetensors 模型放入以下目录:

stable-diffusion-webui\models\Stable-diffusion\ 

🚧 遇到模型加载失败:ProxyError 错误

如果你遇到类似如下错误信息:

ProxyError: ('Unable to connect to proxy', FileNotFoundError(2, 'No such file or directory')) 

并伴随类似:

requests.exceptions.ProxyError: (MaxRetryError("HTTPSConnectionPool(...): Max retries exceeded with url: /openai/clip-vit-large-patch14/resolve/main/vocab.json ...")) 

解决方法如下:

  1. 请关闭你之前为了下载模型使用的代理工具(包括系统代理或设置在 WebUI 中的代理参数)。
  2. 关闭命令行窗口,重新运行 webui-user.bat,程序会重新尝试使用正常方式连接 HuggingFace。

🌀 如果出现“卡住不动”的情况?

有时候你可能会发现命令行卡在某一步不动,长时间没有进度。

解决方法:

  • 直接关闭命令行窗口,重新运行 webui-user.bat,系统通常会从上次中断处继续下载或跳过已安装内容。

六、设置代理加速 HuggingFace 模型下载

为什么要设置?

很多用户在首次运行或切换模型时会遇到以下错误:

OSError: Can't load tokenizer for 'openai/clip-vit-large-patch14' 

说明系统在尝试联网下载 tokenizer 文件(如 vocab.json),但由于网络限制(如 HuggingFace 被墙),下载失败。


解决方法一:在 webui-user.bat 中设置代理

  1. 编辑 webui-user.bat 文件,在开头添加如下内容:
:: 启用代理(如 Clash 使用 HTTP 代理 7890 端口) set HTTP_PROXY=http://127.0.0.1:7890 set HTTPS_PROXY=http://127.0.0.1:7890 :: 如果你用的是 SOCKS5 代理(如 V2Ray、Trojan): :: set ALL_PROXY=socks5://127.0.0.1:1080 
  1. 保存并重新运行 webui-user.bat
✅ 一般配合 Clash 使用效果较好,默认本地端口为 7890

解决方法二:手动下载 CLIP Tokenizer 模型到本地

  1. 下载以下 4 个文件:
    • vocab.json
    • merges.txt
    • tokenizer_config.json
    • special_tokens_map.json
  2. 将上述 4 个文件全部放入该目录中。

打开 ldm\modules\encoders\modules.py,找到如下代码:

self.tokenizer = CLIPTokenizer.from_pretrained(version)

修改为:

self.tokenizer = CLIPTokenizer.from_pretrained("models/clip-vit-large-patch14")

在本地新建目录:

stable-diffusion-webui\models\clip-vit-large-patch14\ 

访问以下链接(如无法打开建议用代理):

https://huggingface.co/openai/clip-vit-large-patch14/tree/main 

这样就会从本地加载 tokenizer 文件,避免联网失败问题。

在这里插入图片描述

七、可选:更换模型

你可以将其他 .ckpt.safetensors 模型放入:

stable-diffusion-webui\models\Stable-diffusion\ 
在这里插入图片描述

然后在 Web UI 界面右上角下拉选择切换模型。


八、模型部署成功后的使用与测试

1. 访问 Web UI 界面

当命令行中显示如下信息:

Running on local URL: http://127.0.0.1:7860 
在这里插入图片描述

打开浏览器,输入该地址访问 Web UI 页面。


2. 输入测试 Prompt 生成图片

在界面中,你会看到一个文本输入框,称为 “Prompt” 输入框。

在这里插入图片描述

在此输入框中,试试以下测试内容:

Official portrait of Groot as substitute teacher 

3. 配置参数建议(可选)

  • 采样器(Sampler):默认即可,如 Euler a、DDIM 等。
  • 步数(Steps):建议设置 20~30,数值越大图片细节越丰富,但生成时间也更长。
  • 分辨率(Width/Height):推荐 512x512,显卡显存有限可适当调低。
  • 种子(Seed):默认随机,想要固定结果可指定具体数值。
  • CFG Scale(引导尺度):7~9 之间通常表现较好,控制对 Prompt 的遵守程度。

4. 点击“生成”按钮

等待几秒至几十秒(具体时间与显卡性能相关),页面会自动显示生成的图像。

在这里插入图片描述

附录、常见模型下载失败的解决方法汇总

问题原因解决方法
OSError: Can't load tokenizer for openai/clip-vit-large-patch14HuggingFace 网络不通本地下载 tokenizer 或配置代理
ProxyError 报错系统代理配置残留关闭系统代理,清理环境变量
命令行卡住不动下载缓慢或被墙Ctrl+C 后重启、断点续传有效
xformers 报错未安装非必要模块可忽略,或通过 pip 安装

Read more

AIGC 新势力:探秘海螺 AI 与蓝耘 MaaS 平台的协同创新之旅

AIGC 新势力:探秘海螺 AI 与蓝耘 MaaS 平台的协同创新之旅

探秘海螺AI:多模态架构下的认知智能新引擎 在人工智能持续进阶的进程中,海螺AI作为一款前沿的多功能AI工具,正凭借其独特的多模态架构崭露头角。它由上海稀宇科技有限公司(MiniMax)精心打造,依托自研的万亿参数MoE大语言模型ABAB6.5以及MiniMax语音大模型,展现出非凡的技术实力与应用潜力。MiniMax的核心团队源自商汤科技等业内知名企业,在多模态大模型研发领域深耕细作,为海螺AI的诞生奠定了坚实基础。 在这里插入图片描述 一、核心模型架构剖析 (一)基础模型:abab - 6.5 海螺AI的基础模型abab - 6.5采用了创新的混合专家系统设计,借助动态路由机制,即Sparse Gating Network,可依据输入内容智能激活8 - 12个子专家模型。这些子专家模型涵盖代码专家、多语言专家、逻辑推理专家等,各司其职,协同作业。在参数规模上,abab - 6.5总参数量高达1.2万亿,同时通过巧妙的设计,将活跃参数量控制在2000亿/query,有效平衡了模型的高容量与低推理成本。在训练优化环节,

Whisper语音识别:10倍速度提升的GPU加速实战指南

Whisper语音识别:10倍速度提升的GPU加速实战指南 【免费下载链接】whisperopenai/whisper: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。 项目地址: https://gitcode.com/GitHub_Trending/whisp/whisper 还在为语音转文字等待太久而烦恼吗?想象一下,原本需要15分钟处理的会议录音,现在只需要90秒就能完成——这就是Whisper结合GPU加速带来的革命性体验。无论是会议纪要整理、播客内容转录,还是多语言翻译,GPU加速都能让你的工作效率实现质的飞跃。 为什么需要GPU加速? 传统CPU处理语音识别时,就像让一个人慢慢翻阅厚厚的文件,而GPU加速则是让整个图书馆的助理同时帮你查找信息。Whisper的三个核心计算阶段在GPU上都能获得显著加速: 计算阶段CPU处理时间GPU处理时间加速效果特征提取35%总时间大幅缩短最明显Tra

AIGC实战测评:蓝耘元生代通义万相2.1图生视频的完美部署~

AIGC实战测评:蓝耘元生代通义万相2.1图生视频的完美部署~

文章目录 * 👏什么是图生视频? * 👏通义万相2.1图生视频 * 👏开源仓库代码 * 👏蓝耘元生代部署通义万相2.1图生视频 * 👏平台注册 * 👏部署通义万相2.1图生视频 * 👏使用通义万相2.1图生视频 * 👏总结 👏什么是图生视频? 图生视频是一种通过图像生成技术,结合文本信息生成视频的创新方式。通过输入一张图像和相关的描述文本,系统能够根据这些输入生成一个符合描述的视频。该技术利用深度学习和计算机视觉技术,将静态图像转化为动态视频,实现视觉内容的快速生成。这种技术的应用广泛,涵盖了内容创作、影视制作、广告生成等多个领域。 👏通义万相2.1图生视频 阿里巴巴旗下“通义”品牌宣布,其AI视频生成模型“通义万相Wan”正式推出独立网站,标志着其生成式AI技术的重大进展。新网站现已开放(网址:wan.video),用户可直接登录体验“文本生成视频”和“图像生成视频”功能,无需本地部署,极大降低了使用门槛。此外,每天登录网站还可获赠积分,激励用户持续探索。 文章链接:https:

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

文章目录 * 从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南 💻✨ * 一、语法纠错:Copilot 如何成为你的“实时校对员” ✅ * 示例 1:自动修复缩进错误 * 示例 2:括号/引号自动闭合与修复 * 示例 3:类型注解缺失的智能补充 * 实战技巧:结合 Linter 使用 Copilot * 二、代码生成:从单行补全到完整函数实现 🧠⚡ * 示例 4:用注释驱动函数生成 * 示例 5:生成单元测试 * 示例 6:异步 HTTP 请求生成 * 三、调试辅助:Copilot 如何帮你“读懂”错误信息 🐞🔍 * 场景:遇到 `KeyError` 怎么办? * 场景: