拆解了这个单条点赞25万的视频,AI萌宠跳舞保姆级教程

拆解了这个单条点赞25万的视频,AI萌宠跳舞保姆级教程

想做个萌宠跳舞视频,要么宠物不听指挥,要么剪辑复杂到头皮发麻;看到别人AI生成的小狗跳舞魔性又上头,自己却不知道从何下手……

做个爆款视频,怎么就这么难?

直到我刷到这条视频,单条点赞13万,魔性的节奏让人根本停不下来。

有些是齐舞,有些是单舞

图片

这种萌宠齐跳海报舞的视频,到底是怎么做出来的?

更绝的是,这玩法门槛超低,有手就能做

不用训练宠物,不用昂贵设备,甚至不需要会画画,用AI工具就能批量生产。

看看成品:

我研究了一整天,终于摸透这套又简单又稳定的方法。今天就把这套保姆级教程拆开了给你看,照着做,你也能复刻这种爆款。

01 准备萌宠“演员”:生成一排整齐划一的站立小狗

重点来了: 想让宠物“学会”跳舞,首先得让它们“站”起来。统一的站立姿势是动作迁移成功的关键。

  • 核心工具: 使用即梦AI的“图片生成”功能。它的写实模型对动物拟人化处理效果一流。
  • 关键提示词公式:[品种名] + 拟人化站立 + [服装描述] + 简洁背景 + 高清细节
  • 实战演示:
    1. 打开即梦AI,选择“图片生成”。
    2. 在提示词框里输入:“一只英国斗牛犬,双脚站立,身穿可爱的恐龙连体睡衣,身体正对镜头,身材短小,白色背景,照片级真实质感”。
    3. 模型选择:“图片4.5”或更高版本,效果更细腻。
    4. 比例选择:16:9(适配短视频平台)。
  • 高级技巧:
    • 批量生成: 用同样的方法,只需替换提示词中的“品种”(如柯基)和“服装”(如蜜蜂、超人),就能快速生成一整排风格统一的萌宠“演员”。
    • 细节把控: 对于柯基等有显著特征的品种,一定要在提示词里加上“耳朵露出”,否则AI可能会忽略。

点击生成!一只可爱的恐龙小狗就诞生了。

图片

图片

这就得到了结构统一的五个动物提示词,可以单个生成,也可以直接生成在一张图片中

图片

看完真的是心都萌化了

02 寻找“舞蹈教练”:搞定动作参考视频

这是决定视频魔性程度的核心!原教程提到自己抠像拼接,太麻烦了!现在有更高效的方法。

  • 方法一(最简单): 直接在抖音或B站搜索“海报舞教程”、“多人齐舞参考”等关键词,能找到大量现成的、节奏感强的多人舞蹈视频。下载下来备用。
  • 方法二(效果最佳): 使用可灵(Kling) 等工具的“动作控制”功能,它们自带热门舞蹈模板(如“醉酒舞”),可以直接选用,省时省力。

核心原则: 动作参考一定要用人类视频!用动物视频做参考,AI容易识别错误,导致动作扭曲。

图片
图片

03 施展“团体舞魔法”:一键让小狗们动起来

原教程中提到的Runway方法对新手不太友好。现在我们有更直接的解决方案。

  • 核心工具: 强烈推荐使用可灵(Kling) 的“动作控制”或类似功能。
  • 三步操作:
    1. 在工具中找到“动作控制”或“图片跳舞”功能。
    2. 上传参考视频: 将第二步找到的“海报舞”视频上传为动作源。
    3. 上传萌宠图片:一次性上传所有第一步生成的小狗站立图片
    4. 点击生成,等待几分钟。
图片

看看效果!你的萌宠天团就已经能整齐划一地跳起舞来了!这才是真正的“一键成片”。

04 精装修与发布:打造属于你的爆款

生成的视频已经基本成型,最后用剪映稍作加工,效果更炸裂。

  1. 导入素材: 将AI生成的视频导入剪映。
  2. 添加音乐: 配上原版“Megan Megan”或任何热门的卡点音乐。
  3. 调整节奏: 对视频进行变速或裁剪,让动作和音乐鼓点完美匹配。
  4. 添加特效/字幕: 加上一些简单的特效和字幕,增加趣味性。
  5. 发布: 记得加上 #AI宠物跳舞 #萌宠成精了 #魔性舞蹈 等热门标签。

怎么样,是不是特别简单?

升级篇

多只萌宠跳齐舞怎么破?

将单人跳舞视频主体抠出来放进剪映中,就成了五个主体跳舞,作为参考视频上传,就不OK了吗?

操作方法跟上述一样的,只是多了一个抠人物的过程哟!

这里有人想要偷懒了,直接在可灵里上传一个多主体视频能不能学会同一个舞蹈。答案是No,你不信?看看我已经给你生成好了

wxv_4339993456933519374

最大的问题就在于,只迁移了一个动作,而不是所有动作。

1)剪映中抠出五个主体工作

图片

2)用多主体动作迁移

使用的工具为running hub

打开链接:https://www.runninghub.cn/?inviteCode=13de1575 

注册领500RH币可以免费生成好多图片视频哦!

注册好后搜索scail-找到多人动作迁移

图片

3)上传图片和动作参考视频

图片

耐心等待,就得到完整的视频啦!

写在最后

说实话,我拆解了这么多AI视频玩法,这种萌宠团体舞是现阶段最容易出效果、最适合新手的玩法之一

为什么?

因为它完美抓住了萌宠和魔性舞蹈两大流量密码,视觉冲击力强,容易引发分享。

而且整套流程高度依赖AI工具,将制作难度降到了最低。

工具只是工具,创意和坚持才是核心

AI时代,拼到最后拼的是谁能持续产出好玩的创意,而不是谁先知道某个工具。

以上就是今天分享的AI萌宠跳舞保姆级教程啦,如果对你有帮助,请点赞收藏转发一波!有问题欢迎评论区交流。

Read more

经验分享|常用的编程语言搭配哪款AI工具(Copilot、CodeLlama、通义千问等)效率最高?

经验分享|常用的编程语言搭配哪款AI工具(Copilot、CodeLlama、通义千问等)效率最高?

深夜,独自坐在办公室的灯光下,我又一次盯着屏幕上那个该死的Bug发呆。这已经是本周第三次,因为一个诡异的并发问题加班到深夜。作为有十年码龄的老程序员,我本该早已习惯这种与代码搏斗的日子,但那天晚上,疲惫感突然如山倒来——我意识到,也许该换种方式写代码了。 几个月前,我开始系统尝试将AI编程助手引入日常工作。不是跟风,而是真的累了。我想知道,这些被吹上天的工具,到底能不能让我早点回家吃上热乎饭。 我的实验场很简单:四种主力语言,四位AI助手。 Python是我数据分析的老伙计,Java撑起了公司的后端江山,JavaScript让我在前端世界游刃有余,而Go则是我探索高并发的新武器。至于AI助手,我选了GitHub Copilot、CodeLlama、通义灵码(阿里出品)和Cursor——最后一个严格来说不是纯AI助手,但它集成了GPT,写代码的方式很颠覆。 下面是我的真实体验,没有神话,只有一手的使用报告。 Python + Cursor:数据分析师的“第二大脑” 我做的第一个实验,是把Cursor塞进我的Python工作流。作为经常处理百万级数据集的从业者,最烦人的不是写核

NASA火星代码测试内幕:用AIGC模拟外星环境攻击

NASA火星代码测试内幕:用AIGC模拟外星环境攻击

火星任务软件测试的迫切需求 NASA的火星探测任务(如“毅力号”和未来载人计划)依赖于复杂的软件系统,这些系统必须抵御未知的外星环境威胁,包括辐射干扰、沙尘暴、黑客攻击等。传统测试方法难以模拟这些极端场景,因此NASA创新性地引入AIGC(人工智能生成内容)技术,生成动态、高保真的攻击模拟环境。本文从软件测试专业视角,揭秘这一内幕,分析其技术框架、测试流程和行业启示,助力测试从业者提升风险应对能力。 一、背景:火星软件测试的独特挑战 火星任务软件(如导航、通信和生命支持系统)面临三重挑战: 1. 环境不确定性:火星表面辐射强度是地球的100倍,沙尘暴可导致传感器失效(数据来源:NASA JPL报告,2025)。 2. 安全威胁:外星黑客攻击可能通过深空网络渗透,例如2024年模拟测试中发现的零日漏洞。 3. 测试局限性:地面实验室无法完全复制火星条件,传统脚本测试覆盖率不足。 AIGC的引入解决了这些痛点: * 定义:AIGC利用生成式AI(如GPT-4和GANs)自动创建攻击场景,包括恶意代码注入、

VSCode自定义Copilot Agent与Awesome Agent

VSCode自定义Copilot Agent与Awesome Agent

本文将介绍如何在VSCode中创建自定义的Agent,以及哪里可以获取到现有的Agent模板 当我们在VSCode中使用Copilot时,可以选择以下几种模式。 Ask, Edit, Agent, 以及在2025年末时我们可以使用的全新的Plan模式。 不过除此之外,其实我们还有办法自定义属于自己的Agent。 选择右下角Agent菜单,选择Configure Custom Agents... 如选择.github\agents 则会在本工作区域中生成该路径并创建一个指定命名的agent.md文件 如果选择User Data则是会创建全局的Agent模板 在vscode中,也可以直接在文件中通过Configure Tools轻松配置所需要使用的tools,非常方便。 然后我们便可以在copilot中使用自己的Agent了. 当然,自己编写一个相对复杂的agent模板比较耗时,而awesome-copilot项目为我们提供了许多的模板,当然不止是agent,也提供了丰富的提示词模板(prompt)和指导词模板(instructions),以及

Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

引言 随着大语言模型(LLM)技术的飞速发展,其底层算力支撑硬件的重要性日益凸显。传统的GPU方案之外,以华为昇腾(Ascend)为代表的NPU(神经网络处理单元)正成为业界关注的焦点。为了全面、深入地评估昇腾NPU在实际LLM应用中的性能表现,我们进行了一项针对性的深度测评。本次测评选用业界广泛应用的开源模型Llama-2-7b,在 Atlas 800T A2 训练卡 平台上进行部署、测试与分析,旨在为开发者和决策者提供一份详实的核心性能数据、深度的场景性能剖析、以及可靠的硬件选型与部署策略参考。 模型资源链接:本项目测评使用的模型权重及相关资源可在 GitCode 社区获取:https://gitcode.com/NousResearch/Llama-2-7b-hf 一、 测评环境搭建与准备 扎实的前期准备是确保测评数据准确可靠的基石。本章节将详细记录从激活昇腾NPU计算环境到完成所有依赖库安装的全过程,确保测试流程的透明与可复现性。 1.1 激活NPU Notebook实例 我们通过GitCode平台进行本次操作。首先,需要进入项目环境并激活一个Notebook实例,这