宇树机器人g1二次开发:建图,定位,导航手把手教程(四)导航仿真部分:建完图之后打开仿真导航

先补一下第三教程的四看路线这一块:终端2那里,可以先修改下面图片所示的文件为true,这样打开终端2的时候就可以打开设定好的rviz,就不用单独打开rviz。但是开始播放bag包之后还是要单独添加话题。

建成pcd之后可以查看pcd图:filename.pcd换成自己pcd的名字

pcl_viewer filename.pcd

额外说一句,有几种类型的图大家不要弄错了:

一、下载项目

# 克隆导航栈源码 cd ~/ws_loc/src git clone https://github.com/deepglint/ros_navigation_humanoid.git # 重命名并整理目录结构 mv ros_navigation_humanoid-master ros_navigation_humanoid

1.2、安装系统依赖

# 安装ROS导航相关包 sudo apt-get install libpcl-dev ros-noetic-navigation ros-noetic-tf ros-noetic-sbpl ros-noetic-visualization-msgs # 安装地图编辑工具 sudo apt-get install kolourpaint

1.3、下载PCD转PGM工具

# 进入工作空间源码目录 cd ~/ws_loc/src # 克隆PCD转栅格地图工具 git clone https://github.com/Hinson-A/pcd2pgm_package.git

二、编译与错误修复

2.1 首次编译尝试

cd ~/ws_loc catkin_make

2.2 解决编译错误

如果编译报错提示缺少include目录,执行:

# 创建缺失的目录 cd ~/ws_loc/src/ros_navigation_humanoid mkdir -p include # 重新编译 cd ~/ws_loc catkin_make

2.3 更新环境变量

source devel/setup.bash

三、地图文件准备与转换

3.1 复制地图文件

# 假设已有建好的点云地图 cp ~/ws_loc/maps/map_1.pcd ~/ws_loc/src/ros_navigation_humanoid/maps/

3.2 修改转换启动文件

编辑 ~/ws_loc/src/ros_navigation_humanoid/launch/conv_pcd2pgm.launch

<?xml version="1.0"?> <launch> <!-- 添加可自定义的地图名参数 --> <arg name="file_name" default="map" /> <arg name="file_directory" default="$(find ros_navigation_humanoid)/maps/" /> <node pkg="pcd2pgm" name="pcd2pgm" type="pcd2pgm" output="screen"> <!-- 使用私有参数语法 --> <param name="~file_name" value="$(arg file_name)" /> <param name="~file_directory" value="$(arg file_directory)" /> <param name="~map_topic_name" value="map" /> <!-- 转换参数配置 --> <param name="~thre_z_min" value="0.2" /> <param name="~thre_z_max" value="0.8" /> <param name="~flag_pass_through" value="0" /> <param name="~thre_radius" value="0.5" /> <param name="~thres_point_count" value="10" /> <param name="~map_resolution" value="0.05" /> </node> <!-- 启动RViz查看转换结果 --> <node pkg="rviz" name="rviz_sim" type="rviz" args="-d $(find ros_navigation_humanoid)/rviz/conv_pcd2pgm.rviz" output="screen"/> </launch>

3.3 执行PCD到PGM转换

# 转换指定名称的地图文件 roslaunch ros_navigation_humanoid conv_pcd2pgm.launch file_name:=map_1

3.4或者根据下面的步骤来将pcd转换到pgm

四、栅格地图编辑

4.1 使用KolourPaint编辑PGM

# 打开生成的PGM文件进行编辑 kolourpaint ~/ws_loc/src/ros_navigation_humanoid/maps/map_1.pgm

白的地方是能走的,黑的地方是不能走的,灰的地方是不确定的。


五、机器人模型展示

5.1 启动URDF模型显示

roslaunch ros_navigation_humanoid static_display.launch


六、导航配置修改(双足→轮式适配)

6.1 修改全局代价地图参数

roscd ros_navigation_humanoid/move_base_config nano global_costmap_params.yaml

修改内容:

# 将机器人基座坐标系从pelvis改为base_link robot_base_frame: base_link # 原为: pelvis

6.2 修改局部代价地图参数

nano local_costmap_params.yaml

修改内容:

robot_base_frame: base_link # 原为: pelvis

6.3 修改局部规划器参数

nano base_local_planner_params.yaml

修改内容:

# 启用全向移动(适用于轮式机器人) holonomic_robot: true # 原为: false

6.4 修改RViz仿真节点

roscd ros_navigation_humanoid/src nano rviz_sim.cpp

修改内容:

// 将TF子坐标系改为base_link map_trans.child_frame_id = "base_link"; // 原为: "pelvis"

七、重新编译与验证

7.1 重新编译修改后的代码

cd ~/ws_loc catkin_make

7.2 启动完整导航仿真

终端1 - 启动ROS核心:

cd ~/ws_loc roscore

终端2 - 启动RViz仿真:

cd ~/ws_loc roslaunch ros_navigation_humanoid rviz_sim.launch

终端3 - 发布静态坐标变换:

# 发布base_link到pelvis的静态TF(维持原有TF树结构) rosrun tf static_transform_publisher 0 0 0 0 0 0 base_link pelvis 100

这样就可以给导航点让机器人仿真导航过去了


八、回放rosbag验证机器人运动(可选)

8.1 修改bag播放启动文件

编辑 bag_play.launch,修改bag文件路径:

<param name="bag_file_path" value="/your/path/to/bagfile.bag" />

8.2 播放rosbag

roslaunch g1_ros1_nav bag_play.launch

九、步态规划配置(可选,保留双足功能)

9.1 下载步态规划相关包

cd ~/ws_loc/src # 下载人形机器人消息定义 git clone https://github.com/ahornung/humanoid_msgs.git # 下载人形机器人导航包 git clone https://github.com/ROBOTIS-GIT/humanoid_navigation.git

9.2 提取必要组件

# 只需要footstep_planner和gridmap_2d cp -r humanoid_navigation/footstep_planner . cp -r humanoid_navigation/gridmap_2d .

9.3 编译步态规划包

cd ~/ws_loc catkin build source devel/setup.bash

9.4 启动步态规划

roslaunch ros_navigation_humanoid foot_planner.launch

Read more

从指令到执行:OpenClaw 底层原理深度拆解 —— 一台真正会 “动手” 的本地 AI 引擎

从指令到执行:OpenClaw 底层原理深度拆解 —— 一台真正会 “动手” 的本地 AI 引擎

前言 当我们对 OpenClaw 发出一句自然语言指令:“把桌面所有超过一周的截图归档到 D 盘,再把今天的工作记录整理成 Markdown 并推送到 GitHub。” 传统 AI 会给出步骤,而 OpenClaw 会直接做完。 绝大多数文章只告诉你 OpenClaw “能做什么”,却极少解释它到底是如何做到的: * 一段文字,是怎么变成可执行的系统操作? * 它凭什么能跨 IM、跨平台、跨模型统一工作? * 高权限执行,底层是如何保证安全与可控? * 本地运行、隐私闭环,在架构上究竟如何实现? 本文不讲功能、不讲教程,只讲原理。从意图解析、任务编排、执行引擎、权限沙箱到多模态交互,带你从 0 到 1 理解 OpenClaw 的技术本质:它不是一个聊天机器人,而是一套本地优先、可解释、可审计、

HarmonyOS 5.0行业解决方案:基于端侧AI的智能工业质检APP开发实战

HarmonyOS 5.0行业解决方案:基于端侧AI的智能工业质检APP开发实战

文章目录 * 每日一句正能量 * 前言 * 一、工业质检数字化背景与技术趋势 * 1.1 行业痛点分析 * 1.2 鸿蒙工业质检技术栈优势 * 二、系统架构设计 * 2.1 整体架构图 * 2.2 核心模块划分 * 三、核心代码实现 * 3.1 多路工业相机接入 * 3.2 端侧AI推理引擎 * 3.3 缺陷检测业务逻辑 * 3.4 分布式质量看板 * 四、工控系统对接 * 4.1 Modbus TCP通信 * 五、OTA模型更新机制 * 六、总结与行业价值 每日一句正能量 低头走路的人只看到大地的厚重,却忽略了高空的高远;抬头走路的人,只看到高空的广阔,却忽略了脚下的艰辛与险峻,我们既需要在一天里憧憬一年,

人工智能:大语言模型(LLM)原理与应用实战

人工智能:大语言模型(LLM)原理与应用实战

人工智能:大语言模型(LLM)原理与应用实战 1.1 本章学习目标与重点 💡 学习目标:掌握大语言模型的核心原理、训练流程与微调方法,学会基于开源大语言模型完成定制化对话与文本生成任务。 💡 学习重点:理解大语言模型的Transformer decoder-only架构,掌握指令微调与RLHF技术,能够使用LoRA高效微调开源LLM。 1.2 大语言模型的核心概念与发展历程 1.2.1 什么是大语言模型 💡 大语言模型(Large Language Model, LLM)是参数量达到十亿级甚至万亿级的Transformer-based模型。它通过在海量文本数据上进行预训练,学习语言的语法、语义、常识和推理能力。 LLM的核心能力包括文本生成、理解、翻译、摘要、问答等。它可以处理复杂的自然语言任务,无需针对每个任务单独设计模型结构。 LLM与传统NLP模型的核心区别: * 参数量级:传统模型参数量通常在千万级,LLM参数量可达十亿到万亿级。 * 训练数据:传统模型依赖标注数据,LLM使用海量无标注文本进行预训练。 * 能力边界:传统模型只能处理单一任务,LL

春节寒假作业辅导:基于 Rokid 灵珠平台打造 AI Glasses 作业助手

春节寒假作业辅导:基于 Rokid 灵珠平台打造 AI Glasses 作业助手

本文应用基于Rokid灵珠智能体/CXR SDK开发,开发指南https://forum.rokid.com/index 文章目录 * 一、引言:为什么我们需要一个 AI Glasses 作业助手? * 二、方案设计与架构 * 2.1 核心功能定义 * 2.2 端到端架构(AI Glasses) * 2.3 业务流程架构 * 三、开发实战:手把手搭建“作业救星” * 3.1 准备工作 * 3.2 步骤一:创建知识库(资源准备) * 3.3 步骤二:创建智能体(Agent) * 3.4 步骤三:搭建核心工作流(Workflow)