【ROS 2】运行 ROS 2 机器人 ( ROS 2 机器人示例 - 海龟仿真器 | ROS 节点分析工具 - rqt | ros2 run 命令解析 | ros2 run 基础格式和完整格式 )

【ROS 2】运行 ROS 2 机器人 ( ROS 2 机器人示例 - 海龟仿真器 | ROS 节点分析工具 - rqt | ros2 run 命令解析 | ros2 run 基础格式和完整格式 )

文章目录

在上一篇博客 【ROS 2】ROS 2 Humble 完整环境配置 ( VirtualBox 7.2.4 + Ubuntu 22.04.5 LTS + ROS 2 Humble ) 中 , 安装了 ROS 2 Humble 环境 , 本篇博客开始进行 ROS 2 开发 ;




一、ROS 2 机器人示例 - 海龟仿真器



1、启动海龟仿真器节点

执行

ros2 run turtlesim turtlesim_node 

命令 ,启动 海龟仿真器 节点 ,

在这里插入图片描述

2、启动控制节点

在另一个 命令行终端 运行

ros2 run turtlesim turtle_teleop_key 

命令 , 可以通过 键盘方向键 控制 海龟 旋转 移动 ;

选中 该 命令行终端 ,使用 左右箭头 控制 海龟方向 ,使用 向上箭头 控制 前进 ,使用 向下箭头 控制 后退 ;

在这里插入图片描述

3、ROS 节点分析工具 - rqt

在终端一 启动了 海龟模拟器 节点 ,

在终端二 启动了 控制节点, 可以通过 上下左右 箭头按键 控制 海龟 左右旋转 和 前后移动 ;

在 终端二 可以控制 海龟模拟器 窗口 中的 海龟移动 , 下面分析其中的控制过程 ;

在 终端三 输入

rqt 

命令 ,这是 ROS 2 提供的 节点 分析工具 ;

在这里插入图片描述

选择 rqt 工具中的 " Plugins / Instrospection / Node Graph " 选项, 这是 ROS 2 的 节点图 ,

在这里插入图片描述

如果打开后 , 节点图内容太小 , 可以使用鼠标滚轮 滚动 放大显示 ;

点击 Fit 键后面的

在这里插入图片描述

按钮 , 可以让节点图自适应填充满整个界面 ;

在这里插入图片描述

鼠标左键点击 节点图 中的元素 , 会变成如下样式 :

  • 左侧的 /turtlesim 是 海龟模拟器 节点
  • 右侧的/teleop_turtle 是 键盘控制节点, 右侧节点 通过 话题 向 左侧节点发送了 控制命令 /turtle1/cmd_vel ;
在这里插入图片描述




二、ros2 run 命令解析



1、设计理念

ros2 run 命令 是 ROS 2 命令行工具 中 用于启动 单个功能包 内 可执行文件节点 的核心子命令 , 其格式设计严格遵循 ROS 2" 功能包 - 可执行文件 - 参数分离 " 的设计理念 ,

ros2 run 分为基础格式 ( 仅启动可执行文件 ) 和完整格式 ( 含可执行文件参数 + ROS 层面参数 ) ,完整格式 覆盖所有场景 ;

ros2 run 的核心逻辑是" 定位功能包 -> 找到可执行文件 -> 启动并接入 ROS 2 通信 ", 其格式设计的关键是分离 " 可执行文件自身参数 " 和 " ROS 层面参数 " ( 通过 --ros-args 分隔 ) ;

掌握该格式的核心是 :明确必选部分的匹配规则、可选部分的顺序要求 ,以及参数解析的边界 ;

2、ros2 run 基础格式

ros2 run 基础格式 命令格式如下 :

ros2 run <package_name><executable_name>
  • ros2 参数 :ROS 2 命令行入口, 所有 ROS 2 终端操作的统一前缀 ( 加载 ROS 2 核心工具链、DDS 通信层 ) ;
  • run 参数 : ros2 的子命令, 功能是 :
    • 查找功能包 : 查找系统 / 本地 工作空间 中已安装的 <package_name> ;
    • 定位可执行 : 定位该功能包 内 编译生成的 <executable_name> ;
    • 启动执行 :启动该 可执行文件, 并自动接入 ROS 2 通信系统( 成为 ROS 2 节点 ) ;
  • <package_name> 参数 : 功能包名称 ;
    • 功能包来源 : 已通过 colcon build 编译 ( 本地工作空间 ) 或apt install 安装 ( 系统级 ) ;
    • 命名规范 : 遵循 ROS 2 命名规范 ( 小写字母 + 下划线 , 如 turtlesim、my_robot_pkg ) ;
  • <executable_name> 参数 : 是 功能包下 的 编译生成 的 可执行文件 名称 ;
    • 配置位置 : 是 CMakeLists.txt/setup.py 中声明的 可执行目标名 ;

3、ros2 run 完整格式

ros2 run 完整格式 命令格式如下 :

ros2 run <package_name><executable_name>[executable_args...][--ros-args <ros_args...>]
  • <> 符号 : 表示 该参数 是必选参数, 需替换为实际值 , 最终 不保留尖括号 ;
  • [] 符号 : 表示 该参数 是可选参数, 可省略 ;
  • ... 符号 : 表示 该参数 是可重复参数 , 多个值用空格分隔 ;
  • [executable_args...] 参数 : 该参数 是传给可执行文件自身的参数, 非 ROS 层面参数 ,由 可执行文件 的 代码解析, ROS 2 CLI 不处理 , 一般都是 自定义节点的配置文件路径、阈值、模式等 ;
  • [--ros-args <ros_args...>] 参数 : 该参数 是ROS 2 层面的参数配置 ( 核心分隔符 ) , --ros-args 之后的所有参数均由 ROS 2 核心解析 , 而非传给可执行文件 ; 常用子参数如下 :
    • --remap 参数 : 重映射 ( 节点名、命名空间、话题 / 服务名 ) ;
    • --log-level 参数 : 设置日志等级 ( DEBUG/INFO/WARN/ERROR/FATAL ) ;
    • --param 参数 : 设置节点参数 ( 需节点支持 ) ;
    • --env 参数 : 设置节点运行的环境变量 ;

4、启动海龟仿真器命令分析

以启动 海龟模拟器 的 命令参数 为例 进行分析 :

ros2 run turtlesim turtlesim_node 
  • ros2 参数 : 是ROS 2 核心命令行入口, 所有 ROS 2 终端操作均以该关键词开头 ( 如 ros2 node/ros2 topic ) ;
  • run 参数 : 是 ros2 的子命令 , 功能是 从指定功能包中找到并运行对应的可执行文件 ( 本质是启动一个 ROS 2 节点 ) ;
  • turtlesim 参数 : 是 功能包名称 ( package name ) ,turtlesim 是 ROS 2 内置的示例功能包, 封装了海龟仿真器的所有代码 ( 包括节点、话题、服务、动作等逻辑 ) ;
  • turtlesim_node 参数 : 是 可执行文件名称 ( executable name ) ,turtlesim 功能包中编译生成的可执行文件, 运行后会启动海龟仿真器的核心节点 ;

Read more

Copilot、Codeium 软件开发领域的代表性工具背后的技术

Copilot、Codeium 软件开发领域的代表性工具背后的技术

早期, Claude、Copilot、Codeium新兴的AI代码助手,模型的温度、切片的效果、检索方式、提示词的约束、AI 回复的约束、最终数据处理;整个环节,任何一个地方都可能造成最终效果不理想。 旨在通过代码生成、代码补全、代码解释和调试等多种功能,帮助开发者减少重复劳动,提高开发效率。尽管Codeium已经取得了显著的成果,但在处理复杂的代码任务、跨文件的修改以及支持定制化库和框架方面仍面临一定的局限性。 2020 年,OpenAI发布的GPT-3模型使AI生成代码的能力得以广泛应用,标志着AI代码助手的转型。2021年,GitHub 推出基于OpenAI Codex的 Copilot,提供实时代码补全和生成能力,提升开发效率,支持跨文件复杂任务。 其痛点,在大规模代码生成、跨文件任务处理以及定制化框架支持方面的局限性仍然限制了其在复杂项目中的应用。 2023年,Claude 3.5等新一代大型语言模型陆续出世,有效提升了自然语言理解与代码生成的能力。这类模型集成了代码生成、调试和文档自动生成等多项功能,能够帮助开发者快速编写高质量代码、优化程序性能并自动修复错误。随着

llama.cpp 多环境部署指南:从CPU到CUDA/Metal的高效推理实践

1. 环境准备:从零开始的硬件与软件栈 如果你和我一样,对在本地运行大模型充满好奇,但又不想被复杂的框架和庞大的资源消耗吓退,那 llama.cpp 绝对是你该试试的第一个项目。简单来说,它是一个用 C/C++ 编写的轻量级推理引擎,能把 Hugging Face 上那些动辄几十GB的模型,“瘦身”成几GB的 GGUF 格式文件,然后在你的电脑上——无论是 Mac 的 Apple Silicon 芯片,还是 Windows/Linux 的 CPU 或 NVIDIA GPU——流畅地跑起来。我最初接触它,就是想在不升级显卡的老电脑上体验一下 7B 参数模型的对话能力,结果发现它不仅能在 CPU 上跑,还能充分利用 GPU 加速,效果远超预期。

无需翻墙!国内直连的3款AI绘画工具保姆级教程(含Stable Diffusion替代方案)

无需跨域,触手可及:面向国内创作者的AI绘画工具深度实践指南 对于许多创意工作者和数字艺术爱好者而言,AI绘画工具的出现无疑打开了一扇新世界的大门。然而,当热情遭遇网络环境的现实壁垒,那份创作的冲动往往被复杂的配置和连接问题所冷却。我们理解,真正的灵感不应被技术门槛所束缚。因此,本文将聚焦于那些能够在国内网络环境下直接、稳定、高效运行的AI绘画解决方案。无论你是插画师、设计师、社交媒体内容创作者,还是纯粹对AI艺术充满好奇的探索者,这里没有晦涩的术语和繁琐的翻越步骤,只有从零开始、一步到位的实操指南。我们将深入探讨不同工具的特性、本地部署的优劣、云端服务的便捷,以及如何将这些工具无缝融入你的实际工作流,释放被压抑的创造力。 1. 核心工具选择:云端直连与本地部署的权衡 在选择AI绘画工具时,我们首先需要明确两个核心路径:云端服务和本地部署。这两条路径在易用性、性能、隐私和成本上各有千秋,理解它们的区别是做出明智选择的第一步。 云端服务 通常以网页应用或轻量级客户端的形式提供。其最大优势在于 “开箱即用” 。你无需关心复杂的模型下载、显卡驱动或显存大小,只需一个浏览器,注册账号

Trae、Cursor、Copilot、Windsurf对比

我最开始用Copilot(主要是结合IDE开发时进行代码补全,生成单元测试用例),但是后面又接触了Cursor,发现Cursor比Copilot更加实用,Cursor生成的单元测试用例更加全面。         多以网上查了查资料,这里记录分享一下。         这篇文章资料来自于网络,是对部分知识整理,这里只是记录一下,仅供参考 前言         随着AI技术的爆发式发展,AI编程工具正在重塑软件开发流程。GitHub Copilot作为先驱者长期占据市场主导地位,但新一代工具如Cursor、Windsurf和Trae正以颠覆性创新发起挑战。本文基于多维度实测数据,深度解析三款工具的核心竞争力,揭示AI编程工具的格局演变趋势。 工具定位与核心技术 1. Cursor:智能化的全能助手         基于VS Code生态深度改造,Cursor融合GPT-4和Claude 3.5模型,支持自然语言转代码生成、跨文件智能补全和自动文档生成。其核心优势在于: * 上下文感知能力:可同时分析10+个关联文件的语义逻辑 * Agent模