表达、梦想与行动:面向指令驱动机器人操作的学习视频世界模型

表达、梦想与行动:面向指令驱动机器人操作的学习视频世界模型

26年2月来自复旦大学的论文“Say, Dream, and Act: Learning Video World Models for Instruction-Driven Robot Manipulation”。

机器人操作需要预测环境如何响应动作而演变,然而大多数现有系统缺乏这种预测能力,常常导致错误和效率低下。虽然视觉语言模型(VLM)可以提供高层次的指导,但它们无法明确预测未来状态,而现有的世界模型要么只能预测较短的时间范围,要么生成空间不一致的帧。为了应对这些挑战,提出一种快速且具有预测性的视频条件动作框架。其方法首先选择并适配一个鲁棒的视频生成模型以确保可靠的未来预测,然后应用对抗蒸馏进行快速、少步骤的视频生成,最后训练一个动作模型,该模型利用生成的视频和真实观测数据来纠正空间误差。大量实验表明,该方法能够生成时间上连贯、空间上精确的视频预测,直接支持精确操作。


世界模型能够预测未来的观测结果(Du et al., 2023; Tian et al., 2024; Zhang et al., 2025a; Li et al., 2025),提供了一种更合适的解决方案。通过预测环境随时间演变的方式,它们提供了丰富的视觉上下文,下游动作模型可以利用这些信息进行明智的决策。尽管世界模型前景广阔,但目前的方法仍面临几个关键的局限性。(1)时间跨度有限:许多模型只能预测未来一小段时间的帧序列,因此需要重复运行才能处理长期任务(Hu et al., 2024)。(2)空间一致性差:预测结果常常受到失真或机器人本体不一致的影响,从而损害空间精度,降低其在精确操作中的实用性。 (3)计算成本高:虽然大型视频生成模型能够实现较高的预测质量,但其迭代特性会带来巨大的计算成本,使得实时部署面临挑战(Jang et al., 2025)。

另一方面,基于扩散的视频生成器虽然能够实现较强的预测质量,但依赖于迭代去噪,而迭代去噪的计算成本很高。诸如蒸馏和对抗训练等技术(Salimans & Ho, 2022; Sauer et al., 2024b; Zhang et al., 2024)可以加速推理,但保持空间和时间上的保真度(这对操作至关重要)仍然是一个挑战。

为了应对这些挑战,提出一种名为 Dream4manip 的框架,该框架由 Say、Dream 和 Act 三个部分组成,它将高保真视频世界模型与上下文相关的条件动作模型相结合,用于指令驱动的机器人操作。方法遵循三个核心原则:Say 部分学习一个鲁棒的、基于视频的世界模型,该模型能够捕捉任务相关的动态信息;Dream 部分通过与帧率无关的视频预测,实现对未来结果的、与视频长度无关的想象;Act 部分将想象的轨迹视为基于真实观测的上下文示例,从而生成可执行的动作。


任务目标是利用学习的世界模型实现快速、长时域的机器人操作。如图所示,框架将高保真度的基于视频世界模型与通过上下文条件训练的动作模型相结合。该方法包含三个阶段:(1)选择并适配适用于机器人领域的鲁棒世界模型;(2)提炼适配后的模型以实现高效的少步去噪;(3)利用想象轨迹和真实轨迹训练上下文条件动作模型。这些组件共同构成一个基于世界模型的、能够快速执行的操作策略。

请添加图片描述

Say:世界模型

选择

核心思想:选择一个能够保持空间一致性和任务相关动态的世界模型。

基于具身决策的关键指标(具身一致性、任务完成率和空间参照能力)对几种最新的视频生成模型进行基准测试。基于这些评估,选择 COSMOS-PREDICT2 作为世界模型的骨干。尽管该模型性能优异,但在新场景、未见过的摄像机视角或不同的具身情况下,其性能可能会下降,因此需要进行域自适应和蒸馏。

域自适应和蒸馏

引入一种潜空间对抗损失,以实现少步去噪,从而在保持预测保真度的同时降低计算成本。即使是最先进的视频生成模型,在部署到新环境中时也可能产生空间不一致性。为了解决这个问题,首先进行域适应,将世界模型与目标机器人域对齐。然后,结合潜对抗监督和重构损失对适应后的模型进行蒸馏,从而得到一个既鲁棒又计算高效的世界模型,便于快速操作。

去噪公式。令 x_0 表示一个 16 维编码的视频潜帧。COSMOS-PREDICT2 中的扩散transformer T_θ 根据辅助信息 cond,从带噪声的输入 x_t 预测去噪后的潜帧 xˆ_0。xcond_t 表示 x_t 的条件版,其中第一帧被干净的潜帧替换,用于图像-到-视频的生成。噪声水平 σ_t 在蒸馏训练和推理过程中使用不同的策略进行采样。

少步蒸馏的噪声调度。为了减少去噪步骤,从离散集合 {σ_1,…,σ_T_g } 中采样 σ_t,p 是一个超参数,用于控制对低噪声水平的重视程度。参数 T_g 的选择与蒸馏模型中目标去噪步骤数相匹配;除非另有说明,否则设置 T_g = 8。

给定采样的噪声水平 σ_t,构建一个含噪的潜变量 x_t ∼N(x_0,σ_t),并应用去噪公式来获得去噪后的预测 xˆ_0。

潜对抗蒸馏。为了加速迭代去噪过程,引入一种潜对抗损失,该损失鼓励在少量去噪步骤下获得高保真度的预测。如上图所示,用来自 COSMOS-PREDICT2 的预训练扩散transformer (DiT) 权重初始化判别器 D,并添加几个轻量级的 3D 卷积头来增强判别器。这些卷积头作用于中间 DiT 特征图,生成像素级的得分图。在训练过程中,冻结 DiT 主干网络,仅优化新增的卷积头,使判别器对于干净的潜变量 x_0 输出接近 1 的得分,对于去噪后的预测值 xˆ_0 输出接近 -1 的得分。

在将 x_0 或 xˆ_0 传递给判别器之前,通过采样 σ′ 来注入额外的噪声,使得 log(σ′) ∼ N (0, 1),然后扩散这两个潜变量,分别得到 x′ 和 xˆ′。这种设计选择是基于以下事实:预训练的 DiT 经过优化,能够处理带噪声的输入,并且在中等噪声下比在干净的潜变量下展现出更稳定、信息更丰富的特征。

重构损失和域自适应。保留 COSMOS-PREDICT2 原始训练目标中的重构损失 L_rec,以促进域自适应,其中权重因子放大噪声样本的贡献,从而鼓励在各种噪声水平下进行精确去噪。其中,加权因子会放大噪声较大样本的贡献,从而在各种噪声水平下实现精确去噪。

总之,生成器 L_G 通过优化组合目标来提炼,其中两个组件是判别器 D 的对抗目标 LD_adv (注:生成器 G 的对抗目标 LG_adv)和重构损失L_rec。

在同一次训练迭代中,还应用重构损失来执行域自适应。具体来说,采样一个噪声水平 σ,使得 log(σ) ∼ N (0, 1),相应地扩散干净的潜变量 x_0,并计算原始潜变量 x_0 和相应的去噪预测 xˆ_0 之间的重构损失。该辅助目标在保留生成先验的同时,进一步将世界模型与目标机器人域对齐。

Dream:与长度无关的世界想象

核心思想:压缩轨迹并生成与执行长度无关的视频。

提出一种与长度无关的想象机制,该机制将任意长度的轨迹压缩成一组固定的关键帧,从而实现整体的、与帧率无关的视频生成。与以往将视频帧与底层动作步骤严格对齐的方法(Du et al., 2023; Yang et al., 2023; Zhou et al., 2024)不同,该洞见是:机器人操作本质上是一个低频预测问题,为每个动作步骤生成一帧是不必要的、冗余的,并且计算成本很高。

为了解决这个问题,通过均匀时间采样将任意长度的机器人执行轨迹压缩成固定数量的关键帧。

然后,对视频扩散模型进行微调,使其学习一种与帧率无关的视频生成能力,从而能够对整个执行过程进行整体想象,而无需依赖具体的执行时长。这使得模型能够在保持计算效率的同时,预测长期结果。

Act:上下文条件动作模型

核心思想:将想象的轨迹视为上下文示例,以指导动作预测。

即使使用最先进的视频生成模型,蒸馏世界模型也可能偶尔出现空间误差。为了解决这个问题,将想象的轨迹视为用于动作预测的上下文示例,而不是严格的指令(Vuong,2025),从而使动作模型能够基于真实观测进行预测,并纠正生成视频中的错误。

如图所示,动作模型同时接收生成的未来帧和真实的历史观测数据。这种设计使得模型能够通过不断地将预测结果与实际观测数据联系起来,从而纠正生成视频中存在的空间误差。在功能上,该模型的运行方式类似于下一个token 预测器:给定一个以生成帧形式呈现的执行示例,它会输出执行后能够产生符合示例中所示一般模式的真实世界观测结果的动作。

请添加图片描述

实验设置。分两个阶段评估方法。首先,用特定任务的指标,测试四个基线视频生成模型(Cosmos-2B、Cosmos-14B、Cosmos-Droid 和 Wan-14B)的零样本空间参考能力,从而评估世界模型,并选择最适合领域自适应的模型。在自适应和对抗蒸馏之后,通过真实世界的定性分析进一步验证改进效果。其次,在模拟任务和真实世界任务中执行部署,以评估提出的策略在引导鲁棒且精确操作方面的有效性。
模拟基准。在评估整个策略时,在 LIBERO 基准测试(Liu,2023)上进行闭环评估。对于 LIBERO 基准测试,每个任务套件包含约 500 个训练样本(具体而言:空间任务 433 个,物体任务 456 个,目标任务 436 个,长任务 389 个)和 10 个测试子任务样本。在评估过程中,每个测试样本执行 50 次,因此每个测试套件总共运行 500 次。

实际环境设置。为了评估方法在实际环境中的有效性,搭建一个如图所示的物理机器人实验平台。该平台采用 Franka 7 自由度机械臂作为操作主体。平台上安装一台 Intel RealSense D435 摄像头,用于以第三人称视角观察机器人。远程操作数据由 3Dconnexion SpaceMouse 采集。

请添加图片描述

实现细节。对于世界模型,基于 cosmos-predict2 训练模型。采用 FusedAdamW 作为优化器,学习率为 2 -14.5。使用 lambda 线性调度器,预热步数为零,单周期长度为 1000 步,fmax = 0.6,fmin = 0。训练采用基于 FSDP 的分布式并行化,上下文并行大小设置为 2,并启用指数移动平均 (EMA) 以稳定收敛。世界模型在 LIBERO 基准数据集上训练 10000 次迭代,而真实世界模型训练 1000 次迭代。训练动作模型时,用 Qwen2.5 初始化 VLM,并使用 LoRa 对 VLM 主干网进行参数高效的微调,排序为 64。训练在 8 个 GPU 上进行,总批大小为 128。在训练过程中,将世界模型生成的未来视频预测作为额外的上下文输入,并从历史视频片段中均匀抽取 8 帧作为条件上下文。学习率设置为 2 × 10−4,训练总步数为 20,000。

Read more

在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

最近mimiclaw火爆,其开发团队也在密集更新,我看3天前已经可以用“飞书机器人”对话交互了。 目前网络上能查到的部署资料相对滞后,现在将飞书机器人的部署整理如下: 1. 前提 已经安装好ESP-IDF,并支持vscode编译esp32固件。 2. api-key准备 * 注册deepseek, * 创建APIkey, * 并充值,新注册的用户余额为零,无法使用 3. 飞书机器人 我是在飞书个人版中,创建的机器人。 1. 访问飞书开放平台,单击创建企业自建应用,填写应用名称和描述,选择应用图标,单击创建。 2. 左侧导航栏单击凭证与基础信息 页面,复制App ID(格式如 cli_xxx)和App Secret。 3. 配置事件订阅。 1. 在飞书开放平台左侧导航栏单击事件与回调,在事件配置页签中单击订阅方式,选择使用 长连接 接收事件,单击保存。 2. 在事件配置页面,单击添加事件,

HACS极速版:智能家居插件下载速度提升10倍的终极解决方案

还在为Home Assistant插件下载缓慢而烦恼吗?HACS极速版正是为你量身打造的解决方案!这款专为中国用户优化的HACS版本,通过智能加速技术彻底解决了国内网络环境下插件下载的难题。本指南将带你从零开始,全面掌握HACS极速版的使用技巧,让智能家居体验更加流畅高效。 【免费下载链接】integration 项目地址: https://gitcode.com/gh_mirrors/int/integration 为什么选择HACS极速版? 常见网络痛点分析: * 官方HACS下载插件经常卡顿或失败 * 更新插件需要漫长等待 * 网络环境限制影响智能家居体验 极速版核心优势: HACS极速版利用gitmirror.com和fastgit.org等国内优质镜像服务,让插件下载速度提升数倍!无论是集成组件、前端卡片还是主题定制,都能快速完成下载安装。 快速上手:四种安装方法详解 方法一:命令行一键安装(推荐) wget -O - https://get.hacs.vip | bash - 或者使用curl命令: curl -fsSL get.hacs.

【无人机追踪】基于 0-1 整数规划实现「能耗最小」的无人机联盟选取,完成目标攻击任务的同时,让所有无人机的总能耗达到最优附Matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长毕业设计辅导、数学建模、数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。 🍎 往期回顾关注个人主页:Matlab科研工作室  👇 关注我领取海量matlab电子书和数学建模资料  🍊个人信条:格物致知,完整Matlab代码获取及仿真咨询内容私信。 🔥 内容介绍  一、背景 在现代军事作战或特定的工业应用场景中,常常需要多架无人机协同完成目标攻击任务。然而,无人机的能源储备有限,能耗问题成为制约其任务执行效率和持续时间的关键因素。如何在众多无人机中选取合适的无人机组成联盟,使其在成功完成目标攻击任务的同时,将所有参与无人机的总能耗控制在最优水平,是一个亟待解决的重要问题。 传统的无人机任务分配方式可能没有充分考虑能耗因素,或者只是简单地基于距离、速度等单一指标进行分配,这往往无法实现总能耗的最优控制。基于 0 - 1 整数规划的方法为解决这一问题提供了一种有效的途径,它能够综合考虑多种约束条件,精确地对无人机进行筛选和组合,以达到能耗最小化的目标。 二、原理 (一)0 - 1 整数规划基础

YOLOv8 模型移植到高通机器人RB5 平台详细指南

YOLOv8 模型移植到高通机器人RB5 平台详细指南

💡前言 随着边缘端 AI 推理需求的增长,将深度学习模型部署到嵌入式平台成为许多开发者的关注焦点。本文将详细介绍如何将 Ultralytics YOLOv8 训练后的目标检测模型移植到高通机器人RB5平台设备上运行,涵盖从 PyTorch 模型到最终部署的完整流程,并提供常见问题的解决方案和性能优化建议。除了该设备外,如果你手上是一台Thundercomm EB5平台的设备,同样可以按照该步骤完成模型训练,快尝试下吧。 1. 概述 1.1 背景介绍 本文档详细介绍如何将 Ultralytics YOLOv8 训练后的目标检测模型移植到高通机器人 RB5平台(Robotics RB5)上运行。RB5 平台是一款强大的机器人开发平台,搭载 Qualcomm QRB5165 处理器,支持 AI 加速和 5G 连接,非常适合边缘端 AI 推理任务。 1.2 模型移植流程 模型移植的完整流程如下: 1.