本地部署 Stable Diffusion:零基础搭建 AI文生图模型

本地部署 Stable Diffusion:零基础搭建 AI文生图模型

本地部署 Stable Diffusion:零基础搭建 AI 文生图系统

Stable Diffusion 是一款强大的开源文生图(Text-to-Image)AI 模型,可以本地运行,无需联网或付费就能生成高质量图像。相比 Midjourney、DALL·E 等云服务,Stable Diffusion 更自由、更可控。

这篇文章将手把手教你如何使用 Stable Diffusion WebUI(AUTOMATIC1111) 在本地搭建一个高效、可定制的 AI 画图系统,适合 AI 爱好者、程序员和设计师。


✅ 目录

  1. 为什么选择 Stable Diffusion?
  2. 环境准备:硬件 & 软件
  3. 安装与部署 WebUI
  4. 下载模型与生成图片
  5. 插件扩展推荐
  6. 常见问题与优化建议
  7. 总结与资源推荐

1️⃣ 为什么选择 Stable Diffusion?

  • 🆓 免费开源,可本地运行,无版权限制
  • 🖼️ 支持高质量图像生成,多种风格切换
  • 🔁 支持 LoRA、ControlNet、DreamBooth 等进阶功能
  • 🌍 社区活跃,模型与插件丰富

2️⃣ 环境准备

硬件要求

项目推荐配置
操作系统Windows / macOS / Linux
显卡NVIDIA 显卡(≥6GB 显存)
内存≥16GB 推荐
硬盘≥10GB 可用空间(模型文件较大)
💡 AMD 显卡也可运行,但需额外配置,如 ROCm 支持。

软件环境

  • Python 3.10(强烈建议)
  • Git
  • 推荐使用 Anaconda 或 virtualenv 创建独立环境

3️⃣ 安装 Stable Diffusion WebUI(AUTOMATIC1111)

第一步:克隆项目

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui 

第二步:准备模型(权重)

下载模型权重(.ckpt 或 .safetensors 格式)并放入以下目录:

stable-diffusion-webui/models/Stable-diffusion/

常用模型:

v1.5 官方基础模型:https://huggingface.co/runwayml/stable-diffusion-v1-5

自定义模型网站:https://civitai.com

第三步:启动 WebUI

推荐参数(减少显存占用)

python launch.py --xformers --medvram --precision full 

默认本地地址:http://127.0.0.1:7860

🌐 若需外部设备访问,添加 --listen 参数。

4️⃣ 生成图片:初次体验

访问 WebUI 后,直接输入提示词即可:

A fantasy landscape, mountain, lake, sunrise, ultra-detailed, 8k 

点击“Generate”后,几秒内即可看到生成图像!

图片

总结 & 推荐资源

Stable Diffusion 是目前最强大的本地 AI 画图工具之一。通过 WebUI,你可以非常容易地尝试各种图像创作风格,还能扩展训练自己的人物风格。还有一些其他模型没有配置,等回头配置完再更新。


🧾 示例生成图(Prompt)

Prompt:
masterpiece, best quality, ultra-detailed, cyberpunk girl, neon background, glowing eyes, wearing futuristic armor, 8k resolution
(本图可替换为你自己生成的图)

Read more

801-203_各无人机厂家对RemoteID支持情况汇总

1. 大疆DJI 参考链接:大疆无人机RemoteID支持情况 DJI航拍无人机的RID广播信息包含以下信息: 1. ID等身份认证 2. 无人机的纬度、经度、几何高度和速度 3. 控制站的纬度、经度和几何高度的指示 4. 时间信息、紧急状态信息 支持RID的航拍无人机型号 大疆无人机支持RID型号列表 序号无人机机型支持情况备注1DJI Mavic 4 Pro支持2DJI Flip支持3DJI Air 3S支持4DJI Neo支持WIFI直连模式下和脱控模式下不支持5DJI Mini 4K支持V01.07.0400 及以后6DJI Avata 2V01.00.0300 及以后7DJI Mini 4 Pro支持V01.00.0400 及以后8DJI Air 3支持V01.00.1200 及以后9DJI Mini 3支持V01.

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,

无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

电脑配置:Xavier-nx、ubuntu 18.04、ros melodic 激光雷达:Livox_Mid-360 结果展示:左边Mid360+Fast-lio感知建图,右边Ego-planner运动规划 1、读取雷达数据并显示 无人机避障——感知篇(采用Livox-Mid360激光雷达获取点云数据显示)-ZEEKLOG博客 看看雷达数据话题imu以及lidar两个话题  2、读取雷达数据并复现fast-lio  无人机避障——感知篇(采用Mid360复现Fast-lio)-ZEEKLOG博客 启动fast-lio,确保话题有输出   由于此处不需要建图,因此不打开rviz,launch文件如下修改: <launch> <!-- Launch file for Livox MID360 LiDAR --> <arg name="rviz&

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址 * @[TOC](2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址) * 🌈 Stable Diffusion整合包(秋葉aaaki整合版) * 📦 【下载链接】 * 💡 英特尔 CPU 用户特别提醒 * 🔧 AMD 显卡专用方案 * ⚙️ 常见问题与解决方案 * 🧠 ComfyUI 整合包(秋葉aaaki定制优化版) * 📥 【下载链接】 * 🚀 更新日志(2025.2.4 v1.6) * 🧩 报错解决 关键词建议(自动覆盖百度、必应等搜索) AI绘画整合包下载、Stable Diffusion整合包、ComfyUI整合包、秋葉aaaki整合包、AI绘图工具、AI绘画模型、