Seedance 2.0 完整操作手册:AI 视频创作进入人人都是导演时代

Seedance 2.0 完整操作手册:AI 视频创作进入人人都是导演时代

这两天,字节的AI视频模型Seedance 2.0 彻底出圈了

到处都是 Seedance 2.0 的生成AI作品

有人用它做出了电影级的追逐戏,有人用它复刻了广告大片的运镜,还有人拿它做古装穿越剧和各种武打动作片,画面精致到让人分不清是AI生成的还是真人拍的。

不夸张地说,Seedance 2.0 这波更新,直接把AI视频生成的门槛踩到了地板上。

为什么这么火?因为它解决了一个所有创作者都头疼的问题:以前AI视频只能"生成",现在终于能"控制"了。

用图片、视频、音频、文字自由组合,人人都能当导演

 

我们都知道,以前做 AI 视频,你只能打字描述想要什么画面,或者最多放一张图当起始帧。说实话,这种方式表达能力太有限了——你脑子里想的是电影级别的镜头感,打出来的却只是干巴巴的一段话。

现在不一样了。

它不再只是一个"文生视频"工具了,而是变成了一个真正能听懂你想法的多模态视频创作平台。你可以同时丢给它图片、视频、音频、文字,告诉它每个素材分别干嘛用,然后它帮你把这些东西揉在一起,生成一段完整的视频。

听起来有点抽象?没关系,下面我把所有功能和玩法拆开了讲。

先搞清楚:Seedance 2.0 到底能干嘛?

最核心的变化就一个词:多模态。

以前的视频生成工具,输入基本就两种:文字描述,或者一张首帧图。你想控制镜头怎么动、角色做什么表情、背景音乐什么节奏,基本只能靠提示词硬写,写得好不好全凭经验。

Seedance 2.0 直接把输入扩展到了四种模态:

图片:最多上传 9 张,可以指定角色长相、场景风格、服装细节、商品外观,甚至分镜脚本图都行。

视频:最多上传 3 个(总时长不超过 15 秒),可以让模型参考里面的运镜方式、动作节奏、转场特效,相当于给模型一个"样片"。

音频:支持 MP3 上传,最多 3 个(总时长不超过 15 秒),可以指定背景音乐、音效风格、甚至参考某个视频里的旁白音色。

文字:自然语言描述,写清楚你想要什么画面、什么动作、什么节奏就行。

这四种输入可以自由组合,混合上传的文件总上限是 12 个。生成的视频时长最长 15 秒,可以自由选择 4 到 15 秒,而且自带音效和配乐。

简单来说,你终于可以像一个真正的导演一样去"指挥"AI了:用图片定风格,用视频定动作,用音频定节奏,用文字定剧情。

核心参数一览

先看看 Seedance 2.0 能接受什么输入、能输出什么:

参数说明
图片输入最多 9 张
视频输入最多 3 个,总时长不超过 15 秒
音频输入支持 MP3,最多 3 个,总时长不超过 15 秒
文字输入自然语言描述(中英文都行)
生成时长4-15 秒,自由选择
声音输出自带音效和配乐
文件总上限所有素材加起来最多 12 个文件

小建议:素材不是越多越好。优先上传对画面或节奏影响最大的素材,合理分配数量。

 

怎么用?操作方式详解

第一步:选对入口

打开即梦,找到 Seedance 2.0,你会看到两个入口:

  • 首尾帧入口:只上传首帧图 + 文字描述时用这个
  • 全能参考入口:需要多模态组合(图片 + 视频 + 音频 + 文字)时用这个

怎么选?记住一个原则:素材只有一张图加文字,走首尾帧;素材超过一张图,或者有视频、音频参与,走全能参考。

大部分情况下选择全能参考即可,它支持各种参考输入,也就是最新的 seedance 2.0能发挥最大能力的方式。

 

第二步:上传你的素材

点击上传按钮,从本地选文件。图片、视频、音频都可以直接拖进去。上传成功后,所有素材会出现在输入框区域,鼠标悬停可以预览内容。

小建议:上传前想好哪些素材最关键。总共只能传 12 个文件,优先上传对画面风格和节奏影响最大的素材。

 

第三步:用"@"给每个素材分配任务(最关键)

这一步是 Seedance 2.0 最核心的操作,也是很多新手容易忽略的地方。

上传完素材后,你需要在提示词里通过 @素材名 来告诉模型,每个素材具体干什么用。模型不会自己猜,你不说清楚,它就可能乱用。

比如:

  • @图片1 作为首帧
  • @视频1 参考镜头语言
  • @音频1 用于配乐

怎么唤起@:

方法一:在输入框里直接打一个"@"字符,会自动弹出已上传素材的列表,点击你要引用的素材,它就落入输入框了。

 

方法二:点击输入框旁边参数工具栏的"@"按钮,同样会弹出素材列表。

 

@的正确写法示例:

指定首帧和参考:@图片1 作为首帧,参考 @视频1 的镜头语言,@音频1 用于配乐

指定角色形象:@图片1 的女生作为主角,@图片2 的男生作为配角

指定运镜参考:完全参考 @视频1 的所有运镜效果和转场

指定场景参考:左边场景参考 @图片3,右边场景参考 @图片4

指定动作参考:@图片1 的人物参考 @视频1 中的舞蹈动作

指定音色参考:旁白的音色参考 @视频1

踩坑提醒:素材多的时候,一定反复检查每个@引用有没有对上号。把图片当成视频引用,或者把角色A的图标成角色B,模型生成出来就会很混乱。

鼠标放在你@的素材上,悬停可以预览素材,避免插入错误

 

第四步:写好你的提示词

@分配完任务后,剩下的就是用自然语言描述你想要的画面和动作。

写提示词的四个技巧:

 

技巧一:按时间线分段写。 如果视频里有多个画面或剧情转折,建议按秒数分段描述。

比如:

0-3秒画面:男主手里举起一个篮球,抬头望向镜头,说"我只是想喝杯酒,该不会要穿越了吧……" 

4-8秒画面:镜头突然剧烈晃动,场景切换成古宅的雨夜,一个穿着古装的女主冷冽地望向镜头方向。 

9-13秒画面:镜头切到一个穿着明代服饰的人物……

这样写模型能更准确地把握每段画面的节奏和内容。

技巧二:明确说"参考"还是"编辑"。 这两个概念不一样。"参考 @视频1 的运镜"意思是借鉴它的镜头运动方式来生成新内容;"将 @视频1 中的女生换成戏曲花旦"意思是在原视频基础上做修改。写清楚,模型才能正确响应。

技巧三:镜头语言写具体。 不用怕写多,模型现在的理解能力很强。推、拉、摇、移、跟拍、环绕、俯拍、仰拍、一镜到底、希区柯克变焦、鱼眼镜头……这些专业术语它都认识。不懂术语也没关系,用大白话描述也行,比如"镜头从背后慢慢转到正面"。

技巧四:连续动作加过渡描述。 如果你想让角色做一系列连贯动作,记得写上过渡关系,比如"角色从跳跃直接过渡到翻滚,保持动作连贯流畅",避免画面出现不自然的跳切。

第五步:选择生成时长,点击生成

在 4 到 15 秒之间选一个你需要的时长。

 

注意:如果你是在做视频延长(比如把一段已有视频往后接 5 秒),那这里选的时长是"新增部分"的时长,不是总时长。想延长 5 秒就选 5 秒。

然后点生成,等结果就好。不满意可以多生成几次,AI本身有随机性,同样的输入每次结果都会有差异,挑最满意的那条。

写在最后

Seedance 2.0 刷屏不是没有道理的。它不只是画质变好了、动作更流畅了,更关键的是它改变了AI视频创作的交互方式。

通过多模态输入和@引用机制,创作者第一次能够精准地告诉AI"我要什么",而不是写完提示词然后听天由命。

当然它还在持续进化中,有些极端复杂的场景可能还不够完美。但从目前的能力来看,它已经是一个真正能用在实际创作中的生产力工具了。

建议大家先收藏这篇指南,然后打开即梦动手试试。看别人的作品刷屏不过瘾,自己上手才是真的爽!

立即体验 Seedance 2.0 !

以上基于 Seedance 2.0 官方使用手册整理

Read more

Flutter 三方库 ethereum_addresses 的鸿蒙化适配指南 - 掌控区块链地址资产、精密校验治理实战、鸿蒙级 Web3 专家

Flutter 三方库 ethereum_addresses 的鸿蒙化适配指南 - 掌控区块链地址资产、精密校验治理实战、鸿蒙级 Web3 专家

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 ethereum_addresses 的鸿蒙化适配指南 - 掌控区块链地址资产、精密校验治理实战、鸿蒙级 Web3 专家 在鸿蒙跨平台应用执行高级区块链身份管理与多维以太坊地址资产指控(如构建一个支持全场景秒级交互的鸿蒙大型全量钱包中枢、处理海量 Ethereum Address Payloads 的语义认领或是实现一个具备极致指控能力的资产管理后台地址审计中心)时,如果仅仅依赖官方的基础 Regular Expression 或者是极其繁琐的手动 Checksum 计算,极易在处理“由于大小写敏感导致的资产认领偏移”、“高频地址校验下的认领假死”或“由于多语言环境导致的符号解析冲突死结”时陷入研发代码区块链逻辑崩溃死循环。如果你追求的是一种完全对齐现代 Ethereum 标准、支持全量高度可定制校验(Type-safe Web3)且具备极致指控确定性的方案。今天我们要深度解析的 ethereum_addresses——一个专注于解决“地址

By Ne0inhk
飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程 * 一、背景 * 二、实现方案概览 * 三、操作步骤 * 前置准备 * 第一步:创建并进入Claude Code容器 * 配置Claude Code使用本地模型 * 测试Claude Code是否正常工作 * 第二步:安装Python依赖 * 第三步:获取飞书应用的凭证 * 第四步:编写并运行中间件脚本 * 脚本解释 * 运行脚本 * 第五步:在飞书中与机器人对话 * 常见问题 * 总结 一、背景 在日常开发中,我们经常需要快速查询代码问题、生成文档或执行简单的编程任务。如果有一款AI助手能随时响应,就像在电脑终端前一样,那该多方便!本教程将演示如何搭建一个飞书机器人,当你在手机飞书App上发送消息时,该消息会传递给运行在电脑上的Claude Code(一个智能编码助手),Claude Code处理后将结果回复到你的飞书会话中。 通过这个方案,你可以: * 在手机上随时向AI提问编程问题。 * 让AI帮你调试

By Ne0inhk
AI一镜到底效果炸裂 把教材插图变成VR全景视频(附提示词)

AI一镜到底效果炸裂 把教材插图变成VR全景视频(附提示词)

大家好,我是AI培训韩老师! 在电影的世界里,有一种拍摄手法总能引发观众惊叹——一镜到底。它让镜头像一双无形的眼睛,带领我们穿越战场、潜入犯罪现场、亲历角色内心世界,不间断地体验完整的故事时空。 于是很多人会问我,如何用AI实现一镜到底?简单来说就是不用剪辑一键生成,又简单有高级那种。下面通过这篇文章告诉你! 用AI生成具有电影感的“一镜到底”视频,关键在于清晰地告诉AI你想要的镜头运动轨迹和场景衔接方式。下面我为你梳理了从核心思路、具体方法到实用技巧的完整指南。 🎬 理解AI一镜到底的核心 在AI视频生成中,它通常通过两种方式实现: * 智能多帧创作:这是目前更主流高效的方法。你先准备一系列在内容上连贯的图片(相当于分镜图),然后AI会模拟镜头的连续运动,将这些画面无缝连接成一段长视频,营造出一镜到底的观感。 * 单一长提示词生成:直接用一个详细的长段文本描述整个镜头的运动路径和所有场景变化,由AI直接生成视频。这对提示词书写要求极高,且效果不确定性更大。 无论哪种方式,精准地描述镜头运动(运镜)都是成功的关键。 📷 掌握核心运镜技巧 你需要像导演一样思考,

By Ne0inhk

简单易学的分离式部署小米智能家居Miloco方法

一、安装环境 * Windows用户:安装WSL2以及Docker * macOS/Linux用户:安装Docker 此处不再赘述,网上随便找个教程即可。特别地,对于Windows用户来说,你需要将 WSL2 的网络模式设置为 Mirrored。 二、使用Docker部署Miloco后端 以下均为bash命令。请Windows用户进入WSL2 / Linux、macOS用户进入终端操作: mkdir miloco cd milico vi docker-compose.yml 以下是compose的内容(不会使用vi的同学可以傻瓜式操作:先按i,再使用粘贴功能,然后按冒号,输入wq然后回车,记得关闭输入法): services:backend:container_name: miloco-backend image: ghcr.nju.edu.cn/xiaomi/miloco-backend:latest network_mode:

By Ne0inhk