【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

目录


一、前言

最近AI视频生成技术火得一塌糊涂,从Runway Gen-2到Stable Diffusion的AnimateDiff插件,静态图片“动起来”已经不再是难题。但很多初学者在实操时会遇到各种坑:视频闪烁、人物变形、运动不自然……

本文将以Stable Diffusion WebUI + AnimateDiff为主线,详细拆解从图生图(优化图片)图生视频的全流程操作,并附上可直接复制的提示词和参数表。无论你是刚入门的小白,还是想提升效率的老手,这篇教程都能帮你快速上手。


二、环境搭建与工具选择

2.1 硬件要求

  • 显卡:NVIDIA显卡,显存建议8GB以上(6GB也可运行,但帧数需调低)
  • 内存:16GB+
  • 系统:Windows 10/11(Linux也可,本文以Windows为例)

2.2 软件工具

工具说明获取方式
Stable Diffusion WebUI秋叶整合包或官方源码B站秋叶教程 或 GitHub
AnimateDiff 插件视频生成核心插件WebUI扩展中搜索“AnimateDiff”安装
ControlNet 插件可选,用于控制画面一致性WebUI扩展中搜索“ControlNet”安装
Python3.10.x整合包自带

2.3 模型准备

  • 底模:推荐写实风格 majicMIX realistic 或二次元风格 Anything V5(可在Civitai下载)
  • 运动模块:AnimateDiff官方提供的 mm_sd_v15.ckpt(插件会自动下载,或手动放入 models/AnimateDiff

三、第一步:生成高质量基础图片(图生图)

视频的质量很大程度上取决于首帧图片的质量。如果直接用网上随便找的图,很可能因为风格不统一或细节缺失导致生成失败。因此,建议先用图生图(或文生图)生成一张满意的图片作为起点。

3.1 模型选择

  • 写实人像majicMIX realisticChilloutMix
  • 二次元Anything V5Counterfeit
  • 风景/建筑Realistic VisionDreamShaper

3.2 提示词编写

提示词分为正向和负向,建议将关键描述词放在前面,用 (keyword:权重) 加强。

正向提示词示例(古风美女):

(masterpiece, best quality:1.2), 1girl, solo, chinese clothes, hanfu, looking at viewer, standing, garden, flowers, trees, soft lighting, detailed face, highly detailed skin, (wind blowing hair and clothes:1.1) 

负向提示词(通用反咒):

nsfw, bad hands, bad fingers, missing fingers, extra fingers, bad face, bad eyes, bad proportions, ugly, duplicate, morbid, mutilated, tranny, trans, deformed, blurry, low quality, worst quality, signature, watermark, username, artist name 

3.3 参数设置参考

参数推荐值说明
采样器 (Sampler)DPM++ 2M Karras生成质量与速度均衡
步数 (Steps)30太少细节不足,太多变化不大
CFG Scale7提示词相关性,过高色彩过饱和
宽度/高度512x768竖构图更适合短视频,显存友好
种子 (Seed)-1随机生成,可固定种子复现效果

生成满意图片后,保存到本地(建议PNG格式,保留元数据)。


四、第二步:图生视频核心操作

4.1 AnimateDiff插件安装与配置

  1. 在WebUI中点击 “扩展” -> “可用” -> 搜索 AnimateDiff -> 安装。
  2. 重启WebUI后,在文生图/图生图界面下方会出现 AnimateDiff 折叠面板。
  3. 第一次使用时,需要下载运动模块。点击面板中的 “下载运动模块”,选择 mm_sd_v15.ckpt 下载。若下载慢,可手动下载后放入 models/AnimateDiff 文件夹。

4.2 运动参数详解

切换到 图生图 界面,加载刚才生成的图片,展开 AnimateDiff 面板,设置如下:

参数推荐值说明
启用必须勾选
运动模块mm_sd_v15.ckpt已下载的模块
帧数 (Number of frames)16(测试)→ 32(成品)帧数越多视频越长,显存占用越大
帧率 (FPS)8生成时的预览帧率,后期可用软件补帧
上下文批大小 (Context batch size)16同时处理的帧数,越大越稳定,但显存要求高
运动参数 (Motion parameters)见下表控制镜头运动

运动参数详解表:

参数含义推荐范围示例
平移 X (Translation X)水平移动-2 ~ 2X:0 不动,X:1 每秒右移1像素
平移 Y (Translation Y)垂直移动-2 ~ 2Y:0.5 每秒上移0.5像素
旋转 (Rotation)画面旋转-0.5 ~ 0.5通常设为0
缩放 (Scale)镜头推拉0.98 ~ 1.02Scale:1.01 每秒放大1%,Scale:0.99 缩小

示例组合: 缓慢上移 + 轻微放大
Translation X: 0, Translation Y: 0.5, Rotation: 0, Scale: 1.005

注意: 运动幅度不宜过大,否则人物容易变形。新手建议先尝试单一方向微动。

4.3 生成视频与后处理

设置好参数后,点击 “生成”。生成完毕后,在输出图片区域会显示一个GIF预览。点击GIF右下角的文件夹图标,可以找到生成的MP4视频文件(位于 outputs/img2img-images/日期 下)。

如果需要高清视频,可以使用 Topaz Video AI 进行补帧(将8fps提升到24fps)和放大分辨率。


五、实战案例与提示词解析

案例1:写实人像(镜头缓慢上移)

基础图提示词:

正向:(photorealistic:1.3), (masterpiece:1.2), 1girl, detailed face, perfect eyes, soft skin, natural lighting, depth of field, looking at viewer, wearing sweater, indoors, cozy atmosphere 负向:nsfw, bad hands, bad anatomy, ugly, deformed, disfigured, poorly drawn face, bad proportions, extra limbs, cloned face, disfigured, gross proportions, malformed limbs, missing arms, missing legs, extra arms, extra legs, fused fingers, too many fingers, long neck, username, watermark, signature 

运动参数:Translation Y: 0.5, Scale: 1.0

案例2:风景(镜头缓缓拉远)

基础图提示词:

正向:(masterpiece, best quality), landscape, mountains, river, waterfall, forest, autumn colors, sunny day, blue sky, clouds, highly detailed, cinematic lighting, 8k, photorealistic 负向:nsfw, low quality, worst quality, blurry, fog, text, signature, watermark, username, artist name, ugly, deformed, bad anatomy, bad proportions 

运动参数:Translation Y: 0, Scale: 0.99(每秒缩小1%,镜头拉远)


六、常见问题与解决方案(避坑指南)

Q1:生成的视频闪烁严重

原因: 运动幅度过大,或上下文批大小太小。
解决: 降低平移/缩放值,增大上下文批大小至24;开启ControlNet Tile模型(预处理选择tile_resample)可以增强一致性。

Q2:人物五官扭曲/崩坏

原因: 基础图面部细节不足,或运动过程中面部出现错位。
解决:

  • 在负向提示词中强化“bad face, distorted face”。
  • 使用 ADetailer 插件(人脸修复)对每一帧进行后处理。
  • 降低运动幅度,或使用逐帧生成模式(需更高级设置)。

Q3:视频长度太短

原因: 帧数设置太少。
解决: 增加帧数,但注意显存占用。16帧约1秒(8fps),32帧约2秒。可以生成多段后用剪辑软件拼接,或使用 EbSynth 等工具进行关键帧插值。

Q4:显存不足(CUDA out of memory)

原因: 帧数/上下文批大小过大,或分辨率太高。
解决: 降低分辨率(如384x512),减少帧数,减小上下文批大小,关闭其他占用显存的应用。


七、资源下载

为了方便大家直接上手,我将常用的模型配置文件、提示词模板、参数预设整理到了飞书文档中,需要的自取(链接永久有效):

👉 AI图生图生视频完整资料库(含提示词)

文档内容包括:

  • 实战提示词
  • 常见参数设置对照表(Excel格式)
  • 运动参数预设文件

文档部分内容展示

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

八、结语

AI视频生成技术日新月异,但万变不离其宗:高质量的基础图片 + 合理的运动参数 = 流畅的视频。希望这篇教程能帮助你打开AI视频/图片创作的大门。

如果觉得本文对你有帮助,欢迎点赞、收藏、评论,让更多需要的人看到。有问题可以在评论区留言,我会尽力解答。后续还会更新更多AIGC实战技巧,点个关注不迷路!


版权声明:转载请附上原文出处链接和本声明。

Read more

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景 VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!! (Github Copilot Chat 中使用OpenAI兼容的自定义模型。) 🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能: “实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。” 🤗 官方解决方案:安装VSCode扩展支持 你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot 通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek

文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破

文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破

文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破 文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破,本文介绍百度文心一言 4.5 开源模型中 ERNIE-4.5-0.3B 的轻量化部署与效能。该 3 亿参数模型破解大模型落地的算力、效率、安全困局,在 FastDeploy 框架下实现单张 RTX 4090 承载百万级日请求等突破。文章解析其技术架构,给出本地化部署步骤,通过工业场景、中文特色、工程数学计算等测试验证其能力,还提供性能优化、安全加固及故障排查方法,展现其轻量高效与能力均衡特性。 引言:轻量化部署的时代突围 ✨ 当行业还在为千亿参数模型的算力消耗争论不休时,百度文心一言4.5开源版本以颠覆性姿态撕开了一条新赛道。2025年6月30日,💥 文心一言4.5系列模型正式开源,其中ERNIE-4.5-0.3B这款仅3亿参数的轻量模型,为破解大模型产业落地的三大困局提供了全新方案: * 算力成本困局:

云开发 Copilot ——让开发变得更简单

云开发 Copilot ——让开发变得更简单

声明:本篇博客为云开发 Copilot体验文章,非广告 目录 前言: 游客体验 云开发 Copilot实战: 一、图片生成需求 二、云开发 Copilot实现需求 三、AI生成低代码页面 Copilot 的亮点功能 使用场景 云开发 Copilot开发的前景展望 前言: 在云开发AI+中,腾讯云提供一系列与 AI 相关的功能,如大模型接入、 Agent 等,帮助开发者为自己的小程序、web 或者应用快速接入 AI 能力,同时也提供了云开发 Copilot,来加速用户的开发,帮助用户更快构建自己的应用。下面博主将会为大家实战使用云开发 Copilot来助力开发。 云开发 Copilot是云开发推出的一款 AI 开发辅助工具,可以帮助用户快速生成多种类型的应用功能,包括低代码应用、页面、组件、数据模型、

如何用MCP AI Copilot提升运维效率300%?真实数据告诉你答案

第一章:MCP AI Copilot 运维提效全景解析 在现代企业IT基础设施日益复杂的背景下,MCP AI Copilot 作为智能化运维助手,正在重塑传统运维模式。通过融合机器学习、自然语言处理与自动化执行能力,它能够实时分析系统日志、预测潜在故障并主动触发修复流程,显著降低平均修复时间(MTTR)。 智能告警与根因分析 MCP AI Copilot 可对接 Prometheus、Zabbix 等主流监控系统,利用语义聚类技术对海量告警进行去噪和聚合。当检测到异常指标时,自动调用链路追踪数据进行根因推理。 例如,以下 Go 代码片段展示了如何通过 API 触发告警分析任务: // 初始化AI分析客户端 client := NewAIClient("https://api.mcp-copilot/v1") // 提交告警事件进行智能分析 resp, err := client.AnalyzeAlert(Alert{ Timestamp: