【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

目录


一、前言

最近AI视频生成技术火得一塌糊涂,从Runway Gen-2到Stable Diffusion的AnimateDiff插件,静态图片“动起来”已经不再是难题。但很多初学者在实操时会遇到各种坑:视频闪烁、人物变形、运动不自然……

本文将以Stable Diffusion WebUI + AnimateDiff为主线,详细拆解从图生图(优化图片)图生视频的全流程操作,并附上可直接复制的提示词和参数表。无论你是刚入门的小白,还是想提升效率的老手,这篇教程都能帮你快速上手。


二、环境搭建与工具选择

2.1 硬件要求

  • 显卡:NVIDIA显卡,显存建议8GB以上(6GB也可运行,但帧数需调低)
  • 内存:16GB+
  • 系统:Windows 10/11(Linux也可,本文以Windows为例)

2.2 软件工具

工具说明获取方式
Stable Diffusion WebUI秋叶整合包或官方源码B站秋叶教程 或 GitHub
AnimateDiff 插件视频生成核心插件WebUI扩展中搜索“AnimateDiff”安装
ControlNet 插件可选,用于控制画面一致性WebUI扩展中搜索“ControlNet”安装
Python3.10.x整合包自带

2.3 模型准备

  • 底模:推荐写实风格 majicMIX realistic 或二次元风格 Anything V5(可在Civitai下载)
  • 运动模块:AnimateDiff官方提供的 mm_sd_v15.ckpt(插件会自动下载,或手动放入 models/AnimateDiff

三、第一步:生成高质量基础图片(图生图)

视频的质量很大程度上取决于首帧图片的质量。如果直接用网上随便找的图,很可能因为风格不统一或细节缺失导致生成失败。因此,建议先用图生图(或文生图)生成一张满意的图片作为起点。

3.1 模型选择

  • 写实人像majicMIX realisticChilloutMix
  • 二次元Anything V5Counterfeit
  • 风景/建筑Realistic VisionDreamShaper

3.2 提示词编写

提示词分为正向和负向,建议将关键描述词放在前面,用 (keyword:权重) 加强。

正向提示词示例(古风美女):

(masterpiece, best quality:1.2), 1girl, solo, chinese clothes, hanfu, looking at viewer, standing, garden, flowers, trees, soft lighting, detailed face, highly detailed skin, (wind blowing hair and clothes:1.1) 

负向提示词(通用反咒):

nsfw, bad hands, bad fingers, missing fingers, extra fingers, bad face, bad eyes, bad proportions, ugly, duplicate, morbid, mutilated, tranny, trans, deformed, blurry, low quality, worst quality, signature, watermark, username, artist name 

3.3 参数设置参考

参数推荐值说明
采样器 (Sampler)DPM++ 2M Karras生成质量与速度均衡
步数 (Steps)30太少细节不足,太多变化不大
CFG Scale7提示词相关性,过高色彩过饱和
宽度/高度512x768竖构图更适合短视频,显存友好
种子 (Seed)-1随机生成,可固定种子复现效果

生成满意图片后,保存到本地(建议PNG格式,保留元数据)。


四、第二步:图生视频核心操作

4.1 AnimateDiff插件安装与配置

  1. 在WebUI中点击 “扩展” -> “可用” -> 搜索 AnimateDiff -> 安装。
  2. 重启WebUI后,在文生图/图生图界面下方会出现 AnimateDiff 折叠面板。
  3. 第一次使用时,需要下载运动模块。点击面板中的 “下载运动模块”,选择 mm_sd_v15.ckpt 下载。若下载慢,可手动下载后放入 models/AnimateDiff 文件夹。

4.2 运动参数详解

切换到 图生图 界面,加载刚才生成的图片,展开 AnimateDiff 面板,设置如下:

参数推荐值说明
启用必须勾选
运动模块mm_sd_v15.ckpt已下载的模块
帧数 (Number of frames)16(测试)→ 32(成品)帧数越多视频越长,显存占用越大
帧率 (FPS)8生成时的预览帧率,后期可用软件补帧
上下文批大小 (Context batch size)16同时处理的帧数,越大越稳定,但显存要求高
运动参数 (Motion parameters)见下表控制镜头运动

运动参数详解表:

参数含义推荐范围示例
平移 X (Translation X)水平移动-2 ~ 2X:0 不动,X:1 每秒右移1像素
平移 Y (Translation Y)垂直移动-2 ~ 2Y:0.5 每秒上移0.5像素
旋转 (Rotation)画面旋转-0.5 ~ 0.5通常设为0
缩放 (Scale)镜头推拉0.98 ~ 1.02Scale:1.01 每秒放大1%,Scale:0.99 缩小

示例组合: 缓慢上移 + 轻微放大
Translation X: 0, Translation Y: 0.5, Rotation: 0, Scale: 1.005

注意: 运动幅度不宜过大,否则人物容易变形。新手建议先尝试单一方向微动。

4.3 生成视频与后处理

设置好参数后,点击 “生成”。生成完毕后,在输出图片区域会显示一个GIF预览。点击GIF右下角的文件夹图标,可以找到生成的MP4视频文件(位于 outputs/img2img-images/日期 下)。

如果需要高清视频,可以使用 Topaz Video AI 进行补帧(将8fps提升到24fps)和放大分辨率。


五、实战案例与提示词解析

案例1:写实人像(镜头缓慢上移)

基础图提示词:

正向:(photorealistic:1.3), (masterpiece:1.2), 1girl, detailed face, perfect eyes, soft skin, natural lighting, depth of field, looking at viewer, wearing sweater, indoors, cozy atmosphere 负向:nsfw, bad hands, bad anatomy, ugly, deformed, disfigured, poorly drawn face, bad proportions, extra limbs, cloned face, disfigured, gross proportions, malformed limbs, missing arms, missing legs, extra arms, extra legs, fused fingers, too many fingers, long neck, username, watermark, signature 

运动参数:Translation Y: 0.5, Scale: 1.0

案例2:风景(镜头缓缓拉远)

基础图提示词:

正向:(masterpiece, best quality), landscape, mountains, river, waterfall, forest, autumn colors, sunny day, blue sky, clouds, highly detailed, cinematic lighting, 8k, photorealistic 负向:nsfw, low quality, worst quality, blurry, fog, text, signature, watermark, username, artist name, ugly, deformed, bad anatomy, bad proportions 

运动参数:Translation Y: 0, Scale: 0.99(每秒缩小1%,镜头拉远)


六、常见问题与解决方案(避坑指南)

Q1:生成的视频闪烁严重

原因: 运动幅度过大,或上下文批大小太小。
解决: 降低平移/缩放值,增大上下文批大小至24;开启ControlNet Tile模型(预处理选择tile_resample)可以增强一致性。

Q2:人物五官扭曲/崩坏

原因: 基础图面部细节不足,或运动过程中面部出现错位。
解决:

  • 在负向提示词中强化“bad face, distorted face”。
  • 使用 ADetailer 插件(人脸修复)对每一帧进行后处理。
  • 降低运动幅度,或使用逐帧生成模式(需更高级设置)。

Q3:视频长度太短

原因: 帧数设置太少。
解决: 增加帧数,但注意显存占用。16帧约1秒(8fps),32帧约2秒。可以生成多段后用剪辑软件拼接,或使用 EbSynth 等工具进行关键帧插值。

Q4:显存不足(CUDA out of memory)

原因: 帧数/上下文批大小过大,或分辨率太高。
解决: 降低分辨率(如384x512),减少帧数,减小上下文批大小,关闭其他占用显存的应用。


七、资源下载

为了方便大家直接上手,我将常用的模型配置文件、提示词模板、参数预设整理到了飞书文档中,需要的自取(链接永久有效):

👉 AI图生图生视频完整资料库(含提示词)

文档内容包括:

  • 实战提示词
  • 常见参数设置对照表(Excel格式)
  • 运动参数预设文件

文档部分内容展示

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

八、结语

AI视频生成技术日新月异,但万变不离其宗:高质量的基础图片 + 合理的运动参数 = 流畅的视频。希望这篇教程能帮助你打开AI视频/图片创作的大门。

如果觉得本文对你有帮助,欢迎点赞、收藏、评论,让更多需要的人看到。有问题可以在评论区留言,我会尽力解答。后续还会更新更多AIGC实战技巧,点个关注不迷路!


版权声明:转载请附上原文出处链接和本声明。

Read more

保姆级教程!零基础解锁大疆无人机开发:MSDK/PSDK/ 上云 API 实战指南[特殊字符]

保姆级教程!零基础解锁大疆无人机开发:MSDK/PSDK/ 上云 API 实战指南[特殊字符]

保姆级教程!零基础解锁大疆无人机开发:MSDK/PSDK/上云API实战指南🚁 摘要 作为无人机领域的「苹果生态」,大疆行业开发体系自2014年开放SDK以来,已吸引超10万开发者构建3000+行业解决方案。本文基于官方最新《行业生态入门指南》,深度解析MSDK移动端开发、PSDK负载硬件开发、上云API云端集成三大核心能力,附全流程资源清单与生态认证攻略,助你从「无人机小白」变身行业开发高手! 目录 * 一、大疆开发生态全景:为什么选择大疆二次开发? * 二、MSDK实战:5分钟开发你的首个无人机控制App * 三、PSDK硬核:让无人机秒变「万能挂载平台」 * 四、上云API进阶:构建无人机云端大脑 * 五、开发者必备:技术支持与生态认证全流程 一、大疆开发生态全景:为什么选择大疆二次开发? 🌟 生态优势 * 低门槛:无需自研飞控算法,直接调用大疆底层能力(如飞行稳定、图传通信); * 高兼容:支持Matrice 350 RTK、

基于FPGA的CARRY4 抽头延迟链TDC延时仿真

基于FPGA的CARRY4 抽头延迟链TDC延时仿真

基于FPGA的CARRY4 抽头延迟链TDC延时仿真 1 摘要 基于 FPGA 的 CARRY4 抽头延迟链 TDC,核心是利用 Xilinx FPGA 中 CARRY4 进位单元的固定、低抖动级联延迟构建抽头延迟线,通过锁存信号传播位置实现亚纳秒级时间测量,单级进位延迟约 10–30 ps,级联后可覆盖更大时间量程并结合粗计数拓展动态范围。TDC设计利用FPGA的专用进位链硬件,实现了亚纳秒级的时间测量精度,这是传统数字方法无法达到的。虽然需要校准,但其性能优势和数字集成的便利性使其成为高精度时间测量的首选方案。 2 CARRY4 核心结构与抽头延迟链原理 2.1 CARRY4 单元结构(Xilinx 7 系列 / UltraScale) 每个 CARRY4 包含 4 个 MUXCY 进位选择器与 4 个 XORCY 异或门,

Telegram中文生态探索:@letstgbot 中文群组频道搜索机器人的技术解析与开发实践

Telegram中文生态探索:@letstgbot 中文群组频道搜索机器人的技术解析与开发实践

在Telegram(简称TG)这个全球化的即时通讯平台上,中文用户群体日益壮大。然而,由于Telegram官方搜索功能对中文支持有限,许多用户在寻找高质量群组、频道、机器人或贴纸时常常面临“找群难、找资源更难”的痛点。@letstgbot(LetsTG官方搜索机器人)正是针对这一场景诞生的开源友好型中文搜索引擎工具。它通过Telegram Bot机制,为用户提供高效、精准的中文社群发现服务。本文将从技术原理、使用方法、API集成到二次开发实践,全方位解析@letstgbot,帮助开发者与普通用户更好地理解和利用这一工具,同时也分享Telegram Bot开发的通用知识点。 一、Telegram中文搜索的背景与挑战 Telegram作为MTProto协议驱动的开源通讯软件,其生态高度依赖用户自建群组与频道。中文用户主要集中在科技、学习、资源分享、兴趣爱好等领域,但官方搜索仅支持英文关键词的精确匹配,对中文分词、模糊语义的支持较弱。这导致:新手难以快速发现优质中文社群;群管理员难以有效推广自己的群组/频道;开发者难以构建智能化的社群推荐系统。 LetsTG平台(官网letstg.c

Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装

Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装 前言 在进行 Flutter for OpenHarmony 的社交或客户支持类应用开发时,除了核心的 WebSocket 传输,如何规范化定义“消息(Message)”的数据结构以及处理复杂的对话逻辑状态,往往决定了项目的后期维护性。bavard 是一个专为高度语义化聊天交互设计的协议封装库。它能让你在鸿蒙端以极具逻辑感的对象模型来驱动对话流。本文将带大家了解如何利用 bavard 构建标准化的聊天架构。 一、原理解析 / 概念介绍 1.1 基础原理 bavard 将一次对话拆解为“参与者(Participants)”、“话题(Topics)”和“原子消息(Discrete Messages)”。它提供了一套完整的状态机,用于驱动从“