Stable Diffusion 秋叶大神2025最新整合一键安装包

Stable Diffusion 秋叶大神2025最新整合一键安装包

这段时间我在折腾 Stable Diffusion,期间试过很多安装方式。有手动安装的,也有别人做好的整合包。手动安装的方式对环境要求高,步骤也多,系统要装 Python,要装依赖,还要配好运行库,哪一步出错都要重新查资料,挺消耗时间。后来了解到秋叶大神做的整合一键安装包,这个版本省掉了很多折腾,对新手比较友好。

我自己把安装流程整理了一遍,又结合网上的信息,把一些需要注意的地方写下来,希望能帮到想尝试 Stable Diffusion 的人。


这里完整下载链接

在这里插入图片描述

秋叶整合包是什么

这个整合包属于别人已经帮你配好的版本,里面把 Stable Diffusion WebUI、模型管理、插件、运行环境都准备好了。下载之后按照提示解压,点一下启动脚本就能跑起来,不需要另外去折腾环境。

整合包里放的 WebUI 是常见的 AUTOMATIC1111 版本,所以大部分教程都能直接用。适合想直接出图、想先体验一下模型效果的人。


系统环境方面

我现在用的是 Windows 电脑,所以下面写的内容主要基于 Windows。
秋叶整合包一般都是针对 Windows 整理的,解压之后直接运行,不需要管理员安装,也不会改系统环境变量。

需要注意设备条件:

  • 显卡支持 CUDA 会更顺畅
  • 显卡显存越大,生成大图越稳定
  • 没有独显也能跑,但速度会慢

我用的是有独显的电脑,跑 txt2img 基本能正常运行。


下载方式和注意点

秋叶大神把安装包放在公开渠道,一般会提供网盘链接、夸克链接等。
文件比较大,下载的时候要耐心一点。

下载时建议注意版本号。秋叶整合包会 periodically 更新,有些版本加入新的插件,有些版本会修 bug。选择最新版本通常更省事。

下载完成后,建议把压缩包放在普通路径,比如 D 盘或 E 盘,不要放在中文路径,也不要放在桌面太深的目录。这样能避免脚本识别路径时出错。


解压和文件结构

把压缩包解压后,会看到主目录,里面包含:

  • webui
  • models
  • 环境文件
  • 启动脚本

结构比较清晰。
不用修改文件位置,也不需要先安装 Python。整合包里已经准备好了运行环境,用的都是独立目录,对系统没影响。


运行 WebUI 的方式

在主目录里会看到一个“启动 WebUI”的脚本文件(通常是 .bat)。
双击运行它,命令行窗口会自动加载环境。
等命令行显示链接,例如 http://127.0.0.1:7860,就可以在浏览器里打开界面。

我自己的经验是第一次启动会加载时间稍长,之后启动就快很多。


模型放在哪里

整合包将模型目录整理好了。常见路径是:

stable-diffusion-webui\models\Stable-diffusion 

如果你要添加新的模型,把 .ckpt 文件或者 .safetensors 文件放进这个目录就行。重新打开 WebUI 后,模型选择栏会自动出现。

例如常见的

  • chilloutmix
  • anything
  • 国风模型
  • 写真人模特的模型
    都可以放进去使用。

Lora 的路径会不同,大概在:

models\Lora 

VAE 的路径一般在:

models\VAE 

整合包目录结构都整理好,基本不需要改动。


常用功能的使用方法整理一下

为了让内容更有帮助,我把自己常用的几个功能写一下。

1. txt2img

输入提示词出图,这是最常用的功能。
常填的内容包括:

  • 正面提示词
  • 负面提示词
  • 分辨率
  • 采样方法
  • 步数
  • CFG 值

这些默认值一般都能用。
生成图像后可以立即保存,也能继续调整。

2. img2img

用一张图片作为基础再调整。
比如把原图风格换一下,替换人物,改背景,这些都用得上。
强度值可以调节变化程度,0.3~0.7 之间比较常用。

3. Lora 管理

整合包里带的插件可以管理 Lora,选择权重、合并、加载都会很方便。
使用 Lora 时只需要在提示词里写:

<lora:模型名:权重> 

权重 0.6 左右比较常见。

4. 控制图(ControlNet)

秋叶整合包有附带 ControlNet 插件。
常用功能包括:

  • 线稿
  • 姿态
  • 深度
  • 分割

把提示词结合 ControlNet,可以大幅提高可控性。
比如指定一个姿势生成人物,指定一个场景保持透视不变。


在这里插入图片描述

插件方面

整合包里常见插件有:

  • ControlNet
  • Tagger
  • 图片浏览插件
  • Prompt 工具
  • Lora 管理工具

这些插件的默认设置基本都能直接用,不需要提前配置。
如果有特别需要,也能添加其他插件,方式就是把插件文件放进 extensions 目录。


配置文件

如果想改默认值,可以修改根目录里的配置文件,比如运行参数、显存优化、线程数等。
新手阶段可以不用改。
如果遇到显存不足,可以在脚本里加上 --medvram--lowvram 参数。


常见问题

把网上容易遇到的问题摘一下,并整理成实际可用的建议。

1. 启动后闪退

可能是路径有中文、路径太长,改到简短路径一般可以解决。

2. 出图时显存不足

可以打开低显存模式,或把图片尺寸调低一些。

3. 控制图不生效

检查插件是否启用,确认使用的控制模型是否加载成功。

4. 模型不显示

确认模型放在正确目录,文件格式没有拼错。

5. 启动时提示端口占用

修改端口即可,--port 7861 这种方式可行。


适合谁用

秋叶整合包比较适合想先体验 Stable Diffusion,又不想折腾环境的人。
不论工作、画图、做封面、写自媒体内容,只要需要生成图片,都可以用这个工具快速出图。
学习模型、调风格、做二次元、做真人照片风格,也都能用。
整合包已经把复杂的步骤准备好,用户只需要关心出图和模型本身。


使用后的体感

我自己用秋叶整合包最明显的感受是省时间,少折腾。
之前手动安装,常常因为 Python 版本、Torch 版本、显卡驱动等问题耽误很多时间。整合包把这些都打包好了,只要能跑脚本就能出图。

生成的速度也比较稳定,和手动安装性能差不多。
模型加载速度也可以接受。
插件比较全,不需要自己再找。

对我个人来说,这种整合包比自己安装更适合长期使用,不用担心哪天更新导致环境崩掉。


Read more

Flutter 组件 dart_vlc_ffi 的适配 鸿蒙Harmony 实战 - 驾驭全能媒体播放引擎、实现鸿蒙端 4K 高清解码与跨平台流媒体播放方案

Flutter 组件 dart_vlc_ffi 的适配 鸿蒙Harmony 实战 - 驾驭全能媒体播放引擎、实现鸿蒙端 4K 高清解码与跨平台流媒体播放方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 dart_vlc_ffi 的适配 鸿蒙Harmony 实战 - 驾驭全能媒体播放引擎、实现鸿蒙端 4K 高清解码与跨平台流媒体播放方案 前言 在鸿蒙(OpenHarmony)生态的影音娱乐、监控中心以及智能座舱开发中,一个极致的播放器引擎是一切体验的生命线。虽然鸿蒙系统自带了播放组件,但在面对一些极其冷门、古老或是经过高度加密的视频流格式(如 RTSP、RTMP 或特定的 MKV 封装)时,往往需要一套兼容性更强、更硬核的播放方案。 VLC 作为开源播放器界的“王者”,其内部沉淀了数十年的解码器优化。 dart_vlc_ffi 通过 Dart FFI(外部函数接口)技术,将 VLC

By Ne0inhk

AIGC Bar中的API站最新使用全指南

目录 总览:这篇“全指南”到底解决什么问题 站点定位:它不是“某一个模型”,而是“模型入口的兼容层” 中转/聚合的本质:你买的是“稳定接入体验”,不是“换皮接口” “OpenAI 兼容”的意义:把迁移成本压到改两三个配置项 计费心智:常见是“原价计费 + 充值折扣”或“统一账单” 从零开始:注册、控制台、令牌、分组这四件事要一次做对 账号体系:你真正要找到的是“控制台”和“令牌管理”这两个入口 令牌不是“账号密码”,而是“可撤销、可隔离、可审计”的工程凭据 分组是该站的“路由开关”:选错分组,表现像是“明明有钱却用不了” 一张表把“

By Ne0inhk

Claude Code 与 ChatGPT、Copilot 有什么区别?

很多开发者第一次听到 Claude Code,都会下意识地问一句: 不就是又一个 AI 编程工具吗? 和 ChatGPT、Copilot 到底有什么区别? 如果只停留在“能不能写代码”,这三者看起来差不多; 但一旦放进真实项目、真实工程环境中用,差异会非常明显。 这篇不谈模型参数,也不做主观吹捧,只从开发者日常使用体验出发,说清楚它们本质上的不同。 一、先给结论:三者解决的问题不一样 先用一句话概括定位: * ChatGPT:擅长回答问题 * Copilot:擅长自动补全 * Claude Code:擅长理解和协作一个项目 也就是说,它们并不是互相替代的关系,而是关注点完全不同。 二、ChatGPT:强在通用能力,但脱离项目上下文 ChatGPT 是很多人接触的第一个 AI 编程工具,它的优势非常明显: * 知识面广,几乎什么都能问 * 解释清楚,适合学习新概念 * 写示例代码、语法示范很快

By Ne0inhk

一步到位!VSCode Copilot 终极魔改:智谱 GLM-4.6 接入 + 任意大模型适配

VSCode Copilot 接入 GLM-4.6 方法 安装 vscode-zhipuai 插件后,在 VSCode 设置中添加以下配置: { "zhipuai.apiKey": "你的API_KEY", "zhipuai.model": "GLM-4" } 通过 Ctrl+Shift+P 调出命令面板,执行 ZhipuAI: Toggle Chat 即可激活对话窗口。该插件支持代码补全、对话和文档生成功能。 任意大模型适配方案 修改 VSCode 的 settings.json 实现通用 API 对接: { "ai.

By Ne0inhk