宇树机器人g1二次开发:建图,定位,导航手把手教程(四)导航仿真部分:建完图之后打开仿真导航

先补一下第三教程的四看路线这一块:终端2那里,可以先修改下面图片所示的文件为true,这样打开终端2的时候就可以打开设定好的rviz,就不用单独打开rviz。但是开始播放bag包之后还是要单独添加话题。

建成pcd之后可以查看pcd图:filename.pcd换成自己pcd的名字

pcl_viewer filename.pcd

额外说一句,有几种类型的图大家不要弄错了:

一、下载项目

# 克隆导航栈源码 cd ~/ws_loc/src git clone https://github.com/deepglint/ros_navigation_humanoid.git # 重命名并整理目录结构 mv ros_navigation_humanoid-master ros_navigation_humanoid

1.2、安装系统依赖

# 安装ROS导航相关包 sudo apt-get install libpcl-dev ros-noetic-navigation ros-noetic-tf ros-noetic-sbpl ros-noetic-visualization-msgs # 安装地图编辑工具 sudo apt-get install kolourpaint

1.3、下载PCD转PGM工具

# 进入工作空间源码目录 cd ~/ws_loc/src # 克隆PCD转栅格地图工具 git clone https://github.com/Hinson-A/pcd2pgm_package.git

二、编译与错误修复

2.1 首次编译尝试

cd ~/ws_loc catkin_make

2.2 解决编译错误

如果编译报错提示缺少include目录,执行:

# 创建缺失的目录 cd ~/ws_loc/src/ros_navigation_humanoid mkdir -p include # 重新编译 cd ~/ws_loc catkin_make

2.3 更新环境变量

source devel/setup.bash

三、地图文件准备与转换

3.1 复制地图文件

# 假设已有建好的点云地图 cp ~/ws_loc/maps/map_1.pcd ~/ws_loc/src/ros_navigation_humanoid/maps/

3.2 修改转换启动文件

编辑 ~/ws_loc/src/ros_navigation_humanoid/launch/conv_pcd2pgm.launch

<?xml version="1.0"?> <launch> <!-- 添加可自定义的地图名参数 --> <arg name="file_name" default="map" /> <arg name="file_directory" default="$(find ros_navigation_humanoid)/maps/" /> <node pkg="pcd2pgm" name="pcd2pgm" type="pcd2pgm" output="screen"> <!-- 使用私有参数语法 --> <param name="~file_name" value="$(arg file_name)" /> <param name="~file_directory" value="$(arg file_directory)" /> <param name="~map_topic_name" value="map" /> <!-- 转换参数配置 --> <param name="~thre_z_min" value="0.2" /> <param name="~thre_z_max" value="0.8" /> <param name="~flag_pass_through" value="0" /> <param name="~thre_radius" value="0.5" /> <param name="~thres_point_count" value="10" /> <param name="~map_resolution" value="0.05" /> </node> <!-- 启动RViz查看转换结果 --> <node pkg="rviz" name="rviz_sim" type="rviz" args="-d $(find ros_navigation_humanoid)/rviz/conv_pcd2pgm.rviz" output="screen"/> </launch>

3.3 执行PCD到PGM转换

# 转换指定名称的地图文件 roslaunch ros_navigation_humanoid conv_pcd2pgm.launch file_name:=map_1

3.4或者根据下面的步骤来将pcd转换到pgm

四、栅格地图编辑

4.1 使用KolourPaint编辑PGM

# 打开生成的PGM文件进行编辑 kolourpaint ~/ws_loc/src/ros_navigation_humanoid/maps/map_1.pgm

白的地方是能走的,黑的地方是不能走的,灰的地方是不确定的。


五、机器人模型展示

5.1 启动URDF模型显示

roslaunch ros_navigation_humanoid static_display.launch


六、导航配置修改(双足→轮式适配)

6.1 修改全局代价地图参数

roscd ros_navigation_humanoid/move_base_config nano global_costmap_params.yaml

修改内容:

# 将机器人基座坐标系从pelvis改为base_link robot_base_frame: base_link # 原为: pelvis

6.2 修改局部代价地图参数

nano local_costmap_params.yaml

修改内容:

robot_base_frame: base_link # 原为: pelvis

6.3 修改局部规划器参数

nano base_local_planner_params.yaml

修改内容:

# 启用全向移动(适用于轮式机器人) holonomic_robot: true # 原为: false

6.4 修改RViz仿真节点

roscd ros_navigation_humanoid/src nano rviz_sim.cpp

修改内容:

// 将TF子坐标系改为base_link map_trans.child_frame_id = "base_link"; // 原为: "pelvis"

七、重新编译与验证

7.1 重新编译修改后的代码

cd ~/ws_loc catkin_make

7.2 启动完整导航仿真

终端1 - 启动ROS核心:

cd ~/ws_loc roscore

终端2 - 启动RViz仿真:

cd ~/ws_loc roslaunch ros_navigation_humanoid rviz_sim.launch

终端3 - 发布静态坐标变换:

# 发布base_link到pelvis的静态TF(维持原有TF树结构) rosrun tf static_transform_publisher 0 0 0 0 0 0 base_link pelvis 100

这样就可以给导航点让机器人仿真导航过去了


八、回放rosbag验证机器人运动(可选)

8.1 修改bag播放启动文件

编辑 bag_play.launch,修改bag文件路径:

<param name="bag_file_path" value="/your/path/to/bagfile.bag" />

8.2 播放rosbag

roslaunch g1_ros1_nav bag_play.launch

九、步态规划配置(可选,保留双足功能)

9.1 下载步态规划相关包

cd ~/ws_loc/src # 下载人形机器人消息定义 git clone https://github.com/ahornung/humanoid_msgs.git # 下载人形机器人导航包 git clone https://github.com/ROBOTIS-GIT/humanoid_navigation.git

9.2 提取必要组件

# 只需要footstep_planner和gridmap_2d cp -r humanoid_navigation/footstep_planner . cp -r humanoid_navigation/gridmap_2d .

9.3 编译步态规划包

cd ~/ws_loc catkin build source devel/setup.bash

9.4 启动步态规划

roslaunch ros_navigation_humanoid foot_planner.launch

Read more

文心一言开源版部署及多维度测评实例

文心一言开源版部署及多维度测评实例

文章目录 * 第一章 文心一言开源模型简介 * 第二章 模型性能深度实测 * 2.1 通用能力基准测试 * 2.1.1 文本生成质量 * 2.1.2 数学推理能力 * 2.2 极端场景压力测试 * 2.2.1 高并发性能 * 2.2.2 长上下文记忆 * 第三章 中文特色能力解析 * 3.1.2 文化特定理解 * 3.2 行业术语处理 * 3.2.1 法律文书解析 * 3.2.2 医疗报告生成 * 第四章 开源生态建设评估 * 4.1 模型可扩展性验证 * 4.

解决llama.cpp项目Vulkan后端编译难题:从环境配置到实战修复

解决llama.cpp项目Vulkan后端编译难题:从环境配置到实战修复 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp的Vulkan后端时遇到过"找不到Vulkan库"或"编译失败"的问题?本文将系统梳理Windows、Linux和Docker环境下的完整解决方案,帮助你顺利启用GPU加速功能。读完本文后,你将掌握:Vulkan SDK的正确配置方法、常见编译错误的诊断流程、跨平台构建脚本编写,以及性能验证技巧。 Vulkan后端编译环境准备 Vulkan作为llama.cpp支持的GPU加速后端之一,需要特定的开发环境配置。官方文档docs/build.

撰写‘Stable Diffusion’文生图联动IndexTTS文生音工作流

构建“图文音”一体化生成工作流:Stable Diffusion 与 IndexTTS 的协同实践 在短视频日更、虚拟人直播带货、AI动画批量生成成为常态的今天,内容创作者面临一个看似简单却长期难以解决的问题:如何让画面里的人物“说人话”?这里的“说人话”,不只是语音通顺,更是指声音与形象匹配、情绪一致、节奏同步——真正像一个人在说话。 传统流程中,图像靠画师或文生图模型生成,配音则依赖真人录制或通用TTS合成。结果往往是:嘴型对不上发音节奏,角色前一秒温柔甜美,后一秒变成东北大叔;旁白语气平淡如机器朗读,完全无法呼应剧情张力。这些问题不仅拉低作品质感,更让自动化生产止步于“半自动”。 而如今,随着 Stable Diffusion 和 IndexTTS 2.0 这类高可控性开源模型的成熟,我们终于有机会构建一条真正意义上的“端到端视听内容生成链路”:从一段文本剧本出发,自动生成角色画面、匹配音色、驱动情感语调,并精确对齐音画时序。这条路径的核心,

丹摩智算平台部署 Llama 3.1:实践与体验

丹摩智算平台部署 Llama 3.1:实践与体验

文章目录 * 前言 * 部署前的准备 * 创建实例 * 部署与配置 Llama 3.1 * 使用心得 * 总结 前言 在最近的开发工作中,我有机会体验了丹摩智算平台,部署并使用了 Llama 3.1 模型。在人工智能和大模型领域,Meta 推出的 Llama 3.1 已经成为了目前最受瞩目的开源模型之一。今天,我将通过这次实践,分享在丹摩平台上部署 Llama 3.1 的实际操作流程以及我的个人心得。 部署前的准备 Llama 3.1 是一个资源需求较高的模型,因此在部署之前,首先要确保拥有合适的硬件环境。按照文档中的要求,我选择了 Llama 3.1 8B 版本进行测试。8B 模型对 GPU 显存的需求为