从一句话到一张图:看懂 Stable Diffusion 的“潜空间扩散”生成流程(配图详解)

Stable Diffusion Pipeline

Source: Aayush’s Blog, “Stable Diffusion using Hugging Face – Putting everything together” (2022).Used with attribution.

当你输入一句 “A dog wearing a hat(戴帽子的狗)”,模型最后输出一张高清图片。中间到底发生了什么?
这张图展示的,其实就是 Stable Diffusion 这类潜空间扩散模型(Latent Diffusion Model)最核心的工作流:文本 → 语义向量 → 潜空间噪声 → 逐步去噪 → VAE 解码成图像
本文将按图逐块拆解,并补充它背后的关键概念与工程细节,让你真正理解扩散模型是如何“画画”的。

1. 这张图在讲什么?

这张图描述了典型的 Stable Diffusion 文生图管线

  1. Prompt 文本 → CLIP 文本编码得到 text embeddings
  2. 从高斯噪声开始初始化潜变量 latents
  3. U-Net 在 text embeddings 条件引导下做多步迭代去噪(由 scheduler 控制)
  4. 得到最终的 conditioned latents
  5. VAE 解码成真实像素图输出(如 512×512)

2. 模块一:CLIP Model —— 文本如何变成“可计算的语义”

图左侧是 CLIP Model,主要过程包括:

  • Tokenizer(分词器):把文字拆成 token
  • Token to Embedding:把 token 映射到向量空间
  • 输出 Text Embeddings (1×77×768)

2.1 为什么是 77×768?

以 SD 1.x 为例:

  • 最大 token 长度固定为 77(包含起止符号等)
  • 每个 token 对应一个 768 维语义向量(CLIP Text Encoder 的 hidden size)

因此最终的文本表示是一个矩阵:

\text{text\_embeddings} \in \mathbb{R}^{1 \times 77 \times 768}
这个 embedding 就是后续 U-Net 去噪过程的“条件信号”,相当于让模型知道:它去噪的目标应该朝向“戴帽子的狗”。

3. 模块二:Gaussian Noise → Latents —— 为什么从噪声开始?

图的右上角是 Gaussian Noise(高斯噪声)

  • 形状:1×4×64×64

这就是 Stable Diffusion 的“起点”。

3.1 为什么不是直接在 512×512 像素上扩散?

这是 Stable Diffusion 的核心创新:不在像素空间扩散,而在潜空间(latent space)扩散

  • 真实图像:3×512×512
  • 潜空间:4×64×64

这相当于把图像压缩了 8 倍(512 / 64 = 8),计算量大幅下降。

这就是 Latent Diffusion 的意义:更快、更省显存,同时保持画质。

3.2 这 4 个通道是什么?

这是 VAE 编码后的 latent feature map 的通道数(对 SD 1.x 常见配置就是 4)。


4. 模块三:U-Net —— 扩散模型真正“画画”的地方

图中黄色块是 U-Net,它是扩散模型的核心网络,负责:

  • 输入:当前 timestep 的 noisy latents(含噪潜变量)
  • 条件:text embeddings
  • 输出:噪声预测(或直接预测 x0 / v,取决于训练方式)

4.1 U-Net 为什么叫 U-Net?

因为它是“编码器-解码器”的结构,中间通过 skip connection 保留空间细节,适合做图像相关任务。

4.2 文本是怎么“进”U-Net 的?

通常通过 Cross-Attention(交叉注意力)

  • Query 来自 latent feature
  • Key/Value 来自 text embeddings

这意味着:

模型每一步去噪时,都在不断“对齐”文字语义与图像潜空间结构。

4.3 CFG:提示词引导

虽然图里没写,但实际流程几乎都会用 Classifier-Free Guidance(CFG)

  • 同时跑 有条件(prompt)无条件(空 prompt)
  • 两者结果线性组合,让生成更贴近 prompt
\epsilon = \epsilon_{\text{uncond}} + s \left( \epsilon_{\text{cond}} - \epsilon_{\text{uncond}} \right)

其中 s 是 guidance scale(常见 5~12)。


5. 模块四:Scheduler —— 控制“加噪/去噪”的时间策略

图右侧橙色块是 Scheduler algorithm to add noise,它负责管理扩散过程中的:

  • 时间步(timestep)
  • 噪声强度(noise schedule)
  • 采样算法(DDIM、Euler、DPM++ 等)

5.1 为什么图里写 “Repeat N times”?

因为扩散模型的生成不是“一步到位”,而是 多步迭代

  • 通常 N = 20~50
  • 每一步根据 scheduler 指定的规则更新 latents

这就是所谓的 采样过程(sampling)

去噪步数越多,通常细节越丰富,但耗时越长;不同采样器会影响风格与稳定性。

6. 模块五:VAE —— 从潜空间回到像素世界

图中绿色块是 VAE,它是一个:

  • Encoder:把图像压缩到 latent
  • Decoder:把 latent 解码回图像

在文生图里我们只用 Decoder

image = VAE.decode(conditioned_latents)

输出图像尺寸是:3×512×512(RGB)

这也是图右下角 Output Image 的来源。


7. 串起来:Stable Diffusion 的整体流程(对应图)

结合图,我们可以用“工程视角”的伪流程理解:

  1. 输入 prompt
  2. 用 CLIP 把 prompt 编码成 text embeddings
  3. 初始化随机高斯噪声 latents(1×4×64×64)
  4. for t in timesteps:
    • U-Net(latents, t, text_embeddings) → 预测噪声
    • Scheduler 根据预测噪声更新 latents
  5. VAE 解码 latents → 输出 512×512 图片

8. 为什么这种结构强大?有三个关键优势

8.1 潜空间扩散:速度与质量的折中最佳解

相比像素扩散:更快、更省显存
相比 GAN:更可控、更稳定

8.2 CLIP 语义空间:文本可精细控制图像内容

Cross-attention + CFG 让 prompt 能精准影响形状、颜色、风格、细节。

8.3 Scheduler 可插拔:采样策略决定“生成气质”

不同 scheduler(Euler、DDIM、DPM++)决定:

  • 清晰度
  • 细节锐利程度
  • 风格偏向
  • 收敛速度

9. 读图小结

Stable Diffusion = 文本条件 + 潜空间扩散 + U-Net 去噪 + VAE 解码

Prompt 给方向
CLIP 给语义
U-Net 做生成
Scheduler 控节奏
VAE 把结果搬回像素世界

理解了这条链路,就可以掌握扩散模型最重要的知识骨架。

Read more

智谱AI API接入实战:免费模型不限量使用指南(含若手软件配置示例)

智谱AI API接入实战:免费模型不限量使用指南(含若手软件配置示例)

本教程适用于有AI能力的软件,例如: 若手内容管家(批量生成内容、图片):https://www.ruoshou.com/soft/2.html 若手AI重命名(智能修改文件名):https://www.ruoshou.com/soft/3.html 其他非若手软件产品,但使用标准OpenAI API 格式请求的软件同样通用 基本信息 1. 平台地址:https://www.bigmodel.cn/ 2. KEY地址:https://www.bigmodel.cn/usercenter/proj-mgmt/apikeys 3. 模型、价格列表:https://www.bigmodel.cn/pricing 4.

AskGo:免费使用顶级AI的宝藏网站(Gemini 3、GPT 5.1、DeepSeek)

AskGo:免费使用顶级AI的宝藏网站(Gemini 3、GPT 5.1、DeepSeek)

这几年,AI大模型可谓是极速迭代,在激烈的竞争下,国内的AI大模型能力也有了质的飞跃,如通义千问、豆包、GLM、Kimi等。 但其实国外的AI大模型目前依然呈领先趋势,只是很多人在国内无法使用。 那么今天给大家推荐一个能够同时使用国内外顶级AI的网站——AskGo! AskGo集成了ChatGPT、DeepSeek、Gemini、Claude、Grok等数十个顶尖大模型,覆盖聊天、搜索、深度阅读、创意写作、程序开发、专业翻译、图像生成及视频生成等全场景。无需再做选择题,你可以随时利用最前沿的AI技术解决复杂问题。 AskGo为您提供「一站式AI」综合解决方案: ✅ 国内直接使用数十款顶级AI。包含GPT 5.1、Gemini 3 pro、Claude 4.5、Grok 4.1、DeepSeek满血版、Nano Banana Pro、GPT-4o绘图、Sora2、Veo3.1等顶级模型。

Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践

Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践

Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践 背景 Amazon SageMaker 汇集广泛采用的亚马逊云科技机器学习和分析功能,统一访问所有数据,为分析和人工智能提供一体式体验,使用亚马逊云科技机工具进行模型开发、生成式人工智能、数据处理和 SQL 分析,在融通式合作开发工作室中加快协作和构建,借助强大的生成式人工智能软件开发助手 Amazon Q 开发者版提升效率,无论数据存储在数据湖、数据仓库,还是第三方或联合数据来源中,均可访问所有数据,同时内置治理功能可满足企业安全需求。 前言 本文将通过 Amazon SageMaker Notebook 实例完成 AIGC 模型的测试与验证,再将模型部署至 Amazon SageMaker Inference Endpoint 实现服务化,最后利用 Amazon

2026年最新爆火!9款免费AI写论文工具实测,精准控制AIGC率无压力!

2026年最新爆火!9款免费AI写论文工具实测,精准控制AIGC率无压力!

紧急预警:2026投稿季倒计时!你还在为论文熬夜崩溃? 2026年学术圈投稿窗口已进入最后30天冲刺期——导师催稿邮件刷屏、查重AIGC率卡线、文献综述写得逻辑混乱、数据图表半天做不出来……深夜三点的实验室里,你是不是还在对着空白文档发呆? 现在!学术圈已经集体进入「AI提速赛道」——晚用1天,可能就被同行抢发成果;AIGC率超标0.1%,就可能前功尽弃。别再死磕传统写作法了!本文实测9款2026年爆火的免费AI论文工具,帮你24小时内搞定初稿、1小时降重达标、30分钟理清逻辑,精准控制AIGC率,抢在截稿日前「无痛交稿」! 9款免费AI论文工具核心参数对比(2026年实测版) 为了帮你快速锁定「救命工具」,我们整理了9款工具的核心功能、AIGC控制能力、适用场景对比表——直接抄作业,不用浪费时间试错! 工具名称核心功能AIGC率控制能力适用场景紧急救援指数PaperTan30分钟出万字初稿、双降重、交叉引用全自动★★★★★(精准可调)毕业论文/期刊投稿(全流程)10/10玄域AI工具集3000+AI工具导航、一键直达官网——(工具聚合)快速找工具(写作/绘图/