在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在这里插入图片描述

引言

让我们一起在NVIDIA Jetson上运行HuggingFace的LeRobot,训练基于Transformer的动作扩散策略和ACT策略。这些模型从视觉输入和先前的轨迹(通常在遥操作或模拟中收集)中学习预测特定任务的动作。

本教程将详细介绍如何在Jetson设备上为真实世界的机器人(以低成本的Koch v1.1为例)设置完整的端到端学习流程,从硬件配置、数据收集到模型训练和评估。

环境与硬件要求

所需设备

  1. Jetson设备
    • Jetson AGX Orin (64GB)
    • Jetson AGX Orin (32GB)
    • Jetson Orin NX (16GB)
    • Jetson Orin Nano (8GB) ⚠️ (内存可能受限)
  2. JetPack版本
    • JetPack 6 GA (L4T r36.3)
    • JetPack 6.1 (L4T r36.4)
  3. 存储:强烈推荐使用NVMe SSD
    • lerobot容器镜像需要16.5GB
    • 模型和数据集需要>2GB

基础设置:克隆并设置jetson-containers

# 克隆仓库git clone https://github.com/dusty-nv/jetson-containers # 运行安装脚本bash jetson-containers/install.sh 

真实机器人工作流程:容器启动前

本节将指导您在Jetson上完成LeRobot官方示例《真实世界机器人入门》的全部流程。

💡 提示: 建议在显示器连接模式下操作Jetson。lerobot设计用于显示摄像头视图窗口并在捕获数据集时播放TTS音频,因此连接显示器和扬声器会更方便。

a. 检查jetson-containers目录位置

由于lerobot工作流会产生大量数据,请确保您的jetson-containers目录位于SSD上,而不是eMMC或microSD卡。

# 如果目录位置不正确,使用rsync迁移rsync -aHAX /home/jetson/jetson-containers/ /ssd/jetson-containers/ # 重新运行安装程序bash /ssd/jetson-containers/install.sh 

b. 在主机上创建lerobot目录

为了使数据持久化,我们将在主机上创建lerobot目录并挂载到容器中。

# 进入jetson-containers目录cd jetson-containers # 克隆lerobot目录到data文件夹下 ./packages/robots/lerobot/clone_lerobot_dir_under_data.sh # 复制覆盖文件 ./packages/robots/lerobot/copy_overlay_files_in_data_lerobot.sh 

c. PulseAudio音频设置

LeRobot的数据捕获流程使用Speech Dispatcher通过espeak TTS提供音频提示。我们需要配置PulseAudio以允许root用户访问socket文件。

重启PulseAudio服务:

pulseaudio --kill pulseaudio --start 

找到加载module-native-protocol-unix的部分,并添加auth-anonymous=1

### Load several protocols .ifexists module-esound-protocol-unix.so load-module module-esound-protocol-unix auth-anonymous=1 .endif 

编辑/etc/pulse/default.pa

sudovi /etc/pulse/default.pa 

d. 为ACM设备设置udev规则

为了让程序能以唯一的名称找到leader和follower机械臂,我们设置udev规则。

  • /dev/ttyACM_kochleader: Leader arm
  • /dev/ttyACM_kochfollower: Follower arm

对follower臂重复此过程,然后将规则文件复制到/etc/udev/rules.d/并重启Jetson。

sudocp ./99-usb-serial.rules /etc/udev/rules.d/ sudoreboot

编辑99-usb-serial.rules文件,填入序列号:

SUBSYSTEM=="tty", ATTRS{idVendor}=="2f5d", ATTRS{idProduct}=="2202", ATTRS{serial}=="BA98C8C350304A46462E3120FF121B06", SYMLINK+="ttyACM_kochleader" SUBSYSTEM=="tty", ATTRS{idVendor}=="2f5d", ATTRS{idProduct}=="2202", ATTRS{serial}=="<YOUR_FOLLOWER_ARM_SERIAL>", SYMLINK+="ttyACM_kochfollower" 

仅连接leader臂,记录其序列号:

ll /dev/serial/by-id/ # 输出示例: lrwxrwxrwx 1 root root 13 Sep 24 13:07 usb-ROBOTIS_OpenRB-150_BA98C8C350304A46462E3120FF121B06-if00 -> ../../ttyACM1

e. 增加交换文件大小

为了防止在训练ACT模型时内存不足,建议增加交换空间。

# 增加8GB交换空间 swapoff -a -v sudorm /swfile sudo systemctl disable nvzramconfig sudo fallocate -l 8G /ssd/8GB.swap sudochmod600 /ssd/8GB.swap sudomkswap /ssd/8GB.swap sudosh -c 'echo "/ssd/8GB.swap swap swap defaults 0 0" >> /etc/fstab'sudoreboot

f. 启动lerobot容器

# 进入jetson-containers目录cd jetson-containers # 启动容器,并将主机上的lerobot目录挂载进去 ./run.sh \ -v ${PWD}/data/lerobot/:/opt/lerobot/ \$(./autotag lerobot)

真实机器人工作流程:容器内操作

💡 JupyterLab提示: lerobot容器启动后,JupyterLab服务也会启动。您可以通过http://localhost:8888/访问,其中包含与官方教程各部分对应的notebooks。

1. 组装Koch v1.1机械臂

您可以从ROBOTIS订购Koch v1.1套件(注意:不包含3D打印部件)。

2. 配置电机、校准机械臂、进行遥操作

请跟随Jupyter notebook 7-2_real-robot_configure-motors.ipynb中的步骤操作。

3. 记录并可视化您的数据集

💡 Bash历史提示: 在容器的控制台中,您可以按Up键滚动浏览预注册的常用命令。
# 登录wandb wandb login # 设置HuggingFace用户名exportHF_USER=<your_username># 运行数据记录脚本 python lerobot/scripts/control_robot.py record \ --robot-path lerobot/configs/robot/koch.yaml \ --fps 30\ --root data \ --repo-id ${HF_USER}/koch_test_$(date +%Y%m%d_%H%M%S)\ --tags tutorial \ --warmup-time-s 5\ --episode-time-s 30\ --reset-time-s 30\ --num-episodes 10

4. 在您的数据上训练一个策略

# 登录wandb wandb login # 运行训练脚本DATA_DIR=data python lerobot/scripts/train.py \dataset_repo_id=${HF_USER}/koch_test \policy=act_koch_real \env=koch_real \ hydra.run.dir=outputs/train/act_koch_test \ hydra.job.name=act_koch_test \device=cuda \ wandb.enable=true 

5. 评估您的策略

# 运行评估脚本,-p参数指向训练好的模型 python lerobot/scripts/control_robot.py record \ --robot-path lerobot/configs/robot/koch.yaml \ --fps 30\ --root data \ --repo-id ${HF_USER}/eval_koch_test_01 \ --tags tutorial eval\ --warmup-time-s 5\ --episode-time-s 30\ --reset-time-s 30\ --num-episodes 10\ -p outputs/train/act_koch_test/checkpoints/last/pretrained_model \ --run-compute-stats 0# 可视化评估结果 python lerobot/scripts/visualize_dataset.py \ --root data \ --repo-id ${HF_USER}/eval_koch_test 

基础演练(无需真实机器人)

可视化数据集

LeRobot使用rerun.io进行可视化。

# 在主机上安装并运行rerun pip3 install rerun-sdk rerun # 在容器中运行可视化脚本 jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/visualize_dataset.py \ --repo-id lerobot/pusht \ --episode-index 0

评估预训练的扩散策略

此命令将下载并在PushT环境上运行一个预训练的扩散模型。

jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/eval.py \ -p lerobot/diffusion_pusht \ eval.n_episodes=10\ eval.batch_size=10

训练您自己的ACT策略

接下来,在Aloha操作环境上训练ACT策略。

jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/train.py \policy=act \env=aloha \ env.task=AlohaInsertion-v0 \dataset_repo_id=lerobot/aloha_sim_insertion_human 

结论

本教程展示了在NVIDIA Jetson上使用LeRobot进行端到端机器人学习的完整流程。从硬件设置到数据收集、训练和评估,开发者可以利用Jetson强大的计算能力,在边缘设备上快速迭代和部署机器人学习模型。无论是使用低成本的Koch v1.1进行真实世界实验,还是在模拟环境中进行快速验证,LeRobot都提供了一套强大而灵活的工具。

Read more

Neo4j插件apoc安装及配置(实战经历,一步到位)

Neo4j插件apoc安装及配置(实战经历,一步到位)

目录 apoc插件安装 安装验证 出现的问题 Neo4j版本:Neo4j 5.x apoc版本:同上对应 Neo4j 4.x版本同样适用 apoc插件安装 1.首先查看Neo4j版本(在Neo4j Desktop或命令行中执行): CALL dbms.components() YIELD name, versions RETURN versions;  结果如下: 2.然后去GitHub上下载这个插件 * 访问 APOC GitHub Releases------------ https://github.com/neo4j/apoc/releases/ * 下载与Neo4j版本一致的apoc-x.x.x.x-all.jar文件(例如Neo4j 5.12.0 → APOC 5.

91n边缘计算设备部署轻量TensorFlow模型全流程

91n边缘计算设备部署轻量TensorFlow模型全流程 在工厂车间的流水线上,一台不起眼的小型嵌入式设备正实时分析摄像头传来的图像——它没有连接云端,也不依赖高性能GPU,却能在200毫秒内判断出产品表面是否存在划痕,并立即触发报警。这背后的核心技术,正是基于“91n”类边缘计算设备与轻量化TensorFlow模型的深度融合。 这类设备算力有限、内存紧张,却承担着工业智能化转型中最关键的一环:让AI真正落地到生产现场。而要实现这一目标,不仅需要合适的硬件平台,更离不开一套高效、稳定、可规模化的软件部署方案。TensorFlow Lite 正是在这样的需求背景下脱颖而出,成为当前工业级边缘AI应用的主流选择。 TensorFlow Lite 的工程实践价值 为什么是 TensorFlow Lite?这个问题的答案,藏在每一次模型转换、每一行推理代码和每一个实际部署案例中。 作为 TensorFlow 针对移动端和嵌入式场景优化的轻量版本,TFLite 并非简单地“裁剪”功能,而是从底层重新设计了推理引擎。它的核心逻辑可以概括为三个阶段:模型转换 → 解释器加载 → 本地推理

【AI】——SpringAI通过Ollama本地部署的Deepseek模型实现一个对话机器人(二)

【AI】——SpringAI通过Ollama本地部署的Deepseek模型实现一个对话机器人(二)

🎼个人主页:【Y小夜】 😎作者简介:一位双非学校的大三学生,编程爱好者, 专注于基础和实战分享,欢迎私信咨询! 🎆入门专栏:🎇【MySQL,Javaweb,Rust,python】 🎈热门专栏:🎊【Springboot,Redis,Springsecurity,Docker,AI】  感谢您的点赞、关注、评论、收藏、是对我最大的认可和支持!❤️ 目录 🎈Java调用Deepseek  🍕下载Deepseek模型  🍕本地测试  🍕Java调用模型 🎈构建数据库  🍕增强检索RAG  🍕向量数据库  🍕Springboot集成pgvector 🎈chatpdf 🎈function call调用自定义函数 🎈多模态能力 🎈Java调用Deepseek 本地没有安装Ollama、Docker,openwebUI,可以先学习一下这篇文章:【AI】——结合Ollama、Open WebUI和Docker本地部署可视化AI大语言模型_ollma+本地大模型+open web ui-ZEEKLOG博客

FPGA内部资源详解:LUT、FF、BRAM、DSP、PLL是什么?综合报告怎么看

FPGA内部资源详解:LUT、FF、BRAM、DSP、PLL是什么?综合报告怎么看

本文是《FPGA入门到实战》专栏第8篇。上一篇完成了第一个下板项目,本篇从芯片内部视角出发,深入讲解 FPGA 的五大核心硬件资源:LUT、FF、BRAM、DSP 和 PLL。理解这些资源的工作原理和使用限制,是写出高质量 FPGA 代码、读懂综合报告的基础。 FPGA内部资源详解:LUT、FF、BRAM、DSP、PLL是什么?综合报告怎么看 * 1. 为什么要了解内部资源 * 1.1 Artix-7 资源概览 * 2. LUT 查找表 * 2.1 LUT 是什么 * 2.2 LUT 实现任意 6 输入函数 * 2.3 LUT 的双输出模式(O5/