编写简单的服务和客户端(C++)

编写简单的服务和客户端(C++)

目标: 使用 C++ 创建并运行服务节点和客户端节点。

教程关卡: 初学者

时间:20 分钟

Contents  目录

背景

节点通过服务通信时,发送数据请求的节点称为客户端节点,响应请求的节点称为服务节点。请求和响应的结构由 .srv 文件确定。

这里使用的例子是一个简单的整数加法系统;一个节点请求两个整数的和,另一个节点则以结果回应。

前提条件

在之前的教程中,你学过如何创建工作区包 

1 创建包

打开一个新终端,获取你的 ROS 2 安装源代码,这样 ROS2 命令才能正常工作。

进入之前教程创建的 ros2_ws 目录。

记住,包应该在 src 目录里创建,而不是在工作空间的根目录里。进入 ros2_ws/src 并创建一个新包:

ros2 pkg create --build-type ament_cmake --license Apache-2.0 cpp_srvcli --dependencies rclcpp example_interfaces

你的终端会返回一条消息,验证你的包 cpp_srvcli 及其所有必要的文件和文件夹的创建。

--dependencies 论证会自动为 package.xml 和 CMakeLists.txt 添加必要的依赖线。 example_interfaces 是包含你用来结构化请求和响应所需的 .srv 文件的包:

int64 a
int64 b
---
int64 sum

前两行是请求的参数,破折号下方是响应。

1.1 更新 package.xml

因为你在创建包时用了 --dependencies 选项,所以你不需要手动在 package.xml 或 CMakeLists.txt 添加依赖。

不过,一如既往,请务必在 package.xml 中添加说明、维护者邮箱和姓名,以及许可信息。

<description>C++ client server tutorial</description> <maintainer email="[email protected]">Your Name</maintainer> <license>Apache-2.0</license>


2 写入服务节点

在 ros2_ws/src/cpp_srvcli/src 目录内,创建一个名为 add_two_ints_server.cpp 的新文件,并粘贴以下代码:

#include "rclcpp/rclcpp.hpp" #include "example_interfaces/srv/add_two_ints.hpp" #include <memory> void add(const std::shared_ptr<example_interfaces::srv::AddTwoInts::Request> request, std::shared_ptr<example_interfaces::srv::AddTwoInts::Response> response) { response->sum = request->a + request->b; RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "Incoming request\na: %ld" " b: %ld", request->a, request->b); RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "sending back response: [%ld]", (long int)response->sum); } int main(int argc, char **argv) { rclcpp::init(argc, argv); std::shared_ptr<rclcpp::Node> node = rclcpp::Node::make_shared("add_two_ints_server"); rclcpp::Service<example_interfaces::srv::AddTwoInts>::SharedPtr service = node->create_service<example_interfaces::srv::AddTwoInts>("add_two_ints", &add); RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "Ready to add two ints."); rclcpp::spin(node); rclcpp::shutdown(); }

2.1 检查代码

前两个 #include 语句是你的包依赖关系。

add函数从请求中加两个整数,给出响应的和,同时通过日志通知控制台其状态。

void add(const std::shared_ptr<example_interfaces::srv::AddTwoInts::Request> request,
         std::shared_ptr<example_interfaces::srv::AddTwoInts::Response>      response)
{
    response->sum = request->a + request->b;
    RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "Incoming request\na: %ld" " b: %ld",
        request->a, request->b);
    RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "sending back response: [%ld]", (long int)response->sum);
}

main 功能逐行完成以下任务:

初始化 ROS 2 C++客户端库:

rclcpp::init(argc, argv);

创建一个名为 add_two_ints_server 的节点:

std::shared_ptr<rclcpp::Node> node = rclcpp::Node::make_shared("add_two_ints_server");

为该节点创建一个名为 add_two_ints 的服务,并用 &add 方法自动在网络上通告:

rclcpp::Service<example_interfaces::srv::AddTwoInts>::SharedPtr service =
node->create_service<example_interfaces::srv::AddTwoInts>("add_two_ints", &add);

准备好时打印日志消息:

RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "Ready to add two ints.");

旋转节点,使服务可用。

rclcpp::spin(node);
2.2 Add executable

add_executable 宏生成一个可执行文件,你可以用 ros2 run 运行。在依赖下方添加以下代码块 CMakeLists.txt 以创建可执行的命名服务器 

add_executable(server src/add_two_ints_server.cpp)
ament_target_dependencies(server rclcpp example_interfaces)

为了让 ros2 run 找到可执行文件,在文件末尾 ament_package() 前添加以下几行:

install(TARGETS
    server
  DESTINATION lib/${PROJECT_NAME})

你现在可以构建包,获取本地设置文件并运行,但我们先创建客户端节点,这样你才能看到完整的系统运作。

​​​​​​3 写入客户端节点

在 ros2_ws/src/cpp_srvcli/src 目录内,创建一个名为 add_two_ints_client.cpp 的新文件,并粘贴以下代码:

#include "rclcpp/rclcpp.hpp"
#include "example_interfaces/srv/add_two_ints.hpp"

#include <chrono>
#include <cstdlib>
#include <memory>

using namespace std::chrono_literals;

int main(int argc, char **argv)
{
  rclcpp::init(argc, argv);

  if (argc != 3) {
      RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "usage: add_two_ints_client X Y");
      return 1;
  }

  std::shared_ptr<rclcpp::Node> node = rclcpp::Node::make_shared("add_two_ints_client");
  rclcpp::Client<example_interfaces::srv::AddTwoInts>::SharedPtr client =
    node->create_client<example_interfaces::srv::AddTwoInts>("add_two_ints");

  auto request = std::make_shared<example_interfaces::srv::AddTwoInts::Request>();
  request->a = atoll(argv[1]);
  request->b = atoll(argv[2]);

  while (!client->wait_for_service(1s)) {
    if (!rclcpp::ok()) {
      RCLCPP_ERROR(rclcpp::get_logger("rclcpp"), "Interrupted while waiting for the service. Exiting.");
      return 0;
    }
    RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "service not available, waiting again...");
  }

  auto result = client->async_send_request(request);
  // Wait for the result.
  if (rclcpp::spin_until_future_complete(node, result) ==
    rclcpp::FutureReturnCode::SUCCESS)
  {
    RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "Sum: %ld", result.get()->sum);
  } else {
    RCLCPP_ERROR(rclcpp::get_logger("rclcpp"), "Failed to call service add_two_ints");
  }

  rclcpp::shutdown();
  return 0;
}
3.1 检查代码 

与服务节点类似,以下代码行创建节点,然后为该节点创建客户端:

std::shared_ptr<rclcpp::Node> node = rclcpp::Node::make_shared("add_two_ints_client");
rclcpp::Client<example_interfaces::srv::AddTwoInts>::SharedPtr client =
  node->create_client<example_interfaces::srv::AddTwoInts>("add_two_ints");

接着,请求被创建。其结构由前面提到的 .srv 文件定义。

auto request = std::make_shared<example_interfaces::srv::AddTwoInts::Request>();
request->a = atoll(argv[1]);
request->b = atoll(argv[2]);

while 循环给客户端 1 秒钟时间搜索网络中的服务节点。如果找不到,它会继续等待。

RCLCPP_INFO(rclcpp::get_logger("rclcpp"), "service not available, waiting again...");

如果客户端被取消(例如你在终端输入 Ctrl+C),它会返回错误日志消息,表示被中断。

RCLCPP_ERROR(rclcpp::get_logger("rclcpp"), "Interrupted while waiting for the service. Exiting.");

然后客户端发送请求,节点旋转直到收到响应或失败。

3.2 Add executable

返回 CMakeLists.txt 以添加新节点的可执行文件和目标。在自动生成文件中去除一些不必要的模板后,你的 CMakeLists.txt 应该是这样的:

cmake_minimum_required(VERSION 3.5)
project(cpp_srvcli)

find_package(ament_cmake REQUIRED)
find_package(rclcpp REQUIRED)
find_package(example_interfaces REQUIRED)

add_executable(server src/add_two_ints_server.cpp)
ament_target_dependencies(server rclcpp example_interfaces)

add_executable(client src/add_two_ints_client.cpp)
ament_target_dependencies(client rclcpp example_interfaces)

install(TARGETS
  server
  client
  DESTINATION lib/${PROJECT_NAME})

ament_package()

4 建造与运行

在构建前,最好在工作区根(ros2_ws)运行 rosdep,检查缺少依赖:

rosdep install -i --from-path src --rosdistro jazzy -y

回到你工作区的根节点,ros2_ws,然后构建你的新包:

colcon build --packages-select cpp_srvcli

打开新终端,导航到 ros2_ws,获取设置文件:

source install/setup.bash

现在运行服务节点:

ros2 run cpp_srvcli server

终端应返回以下消息,然后等待:

[INFO] [rclcpp]: Ready to add two ints.

打开另一个终端,重新从 ros2_ws 里获取安装文件。启动客户端节点,后接任意两个中间空格的整数。例如,如果你选择了 2 和 3,客户会收到如下回复:

ros2 run cpp_srvcli client 2 3 [INFO] [rclcpp]: Sum: 5

返回服务节点运行的终端。你会看到它在收到请求、收到的数据以及回应时发布了日志消息:

[INFO] [rclcpp]: Incoming request a: 2 b: 3 [INFO] [rclcpp]: sending back response: [5]

在服务器终端输入 Ctrl+C 即可停止节点旋转。

摘要

 你创建了两个节点来请求和响应服务中的数据。你把它们的依赖和可执行文件添加到包配置文件中,这样你就能构建和运行它们,并看到服务/客户端系统的工作。

Read more

Flutter for OpenHarmony:Flutter 三方库 mcp_dart 接入 AI 大模型上下文协议-智能代理引擎(适配鸿蒙 HarmonyOS Next ohos)

Flutter for OpenHarmony:Flutter 三方库 mcp_dart 接入 AI 大模型上下文协议-智能代理引擎(适配鸿蒙 HarmonyOS Next ohos)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net。 Flutter for OpenHarmony:Flutter 三方库 mcp_dart 接入 AI 大模型上下文协议-智能代理引擎(适配鸿蒙 HarmonyOS Next ohos) 前言 随着 AI 大模型时代的到来,鸿蒙(OpenHarmony)应用正逐步向智能代理转型。mcp_dart 实现了模型上下文协议(MCP)的客户端封装,使得鸿蒙开发者能为 LLM 提供结构化的本地连接,让应用秒变深度集成的 AI Agent 助手。 一、核心价值 1.1 基础概念 MCP 协议像是一条高速公路,连接了 LLM 控制台和本地的数据孤岛。 发送请求 MCP

By Ne0inhk
AI Agent 平台横评:ZeroClaw vs OpenClaw vs Nanobot

AI Agent 平台横评:ZeroClaw vs OpenClaw vs Nanobot

AI Agent 平台横评:ZeroClaw vs OpenClaw vs Nanobot 前言 在之前的文章中,我们详细介绍了 ZeroClaw 的功能特性和安装部署方法。本文将从多个维度对当前主流的 AI Agent 平台进行横向对比,帮助开发者选择最适合自己项目的工具。 一、对比产品概述 1.1 ZeroClaw ZeroClaw 是基于 100% Rust 编写的轻量级 AI Agent 基础设施,强调高性能和安全性。 * 语言:Rust * 特点:二进制仅 ~3.4 MB,启动极快,内存占用低 * GitHub:https://github.com/theonlyhennygod/zeroclaw 1.2 OpenClaw

By Ne0inhk
AIGC 新势力:探秘海螺 AI 与蓝耘 MaaS 平台的协同创新之旅

AIGC 新势力:探秘海螺 AI 与蓝耘 MaaS 平台的协同创新之旅

探秘海螺AI:多模态架构下的认知智能新引擎 在人工智能持续进阶的进程中,海螺AI作为一款前沿的多功能AI工具,正凭借其独特的多模态架构崭露头角。它由上海稀宇科技有限公司(MiniMax)精心打造,依托自研的万亿参数MoE大语言模型ABAB6.5以及MiniMax语音大模型,展现出非凡的技术实力与应用潜力。MiniMax的核心团队源自商汤科技等业内知名企业,在多模态大模型研发领域深耕细作,为海螺AI的诞生奠定了坚实基础。 在这里插入图片描述 一、核心模型架构剖析 (一)基础模型:abab - 6.5 海螺AI的基础模型abab - 6.5采用了创新的混合专家系统设计,借助动态路由机制,即Sparse Gating Network,可依据输入内容智能激活8 - 12个子专家模型。这些子专家模型涵盖代码专家、多语言专家、逻辑推理专家等,各司其职,协同作业。在参数规模上,abab - 6.5总参数量高达1.2万亿,同时通过巧妙的设计,将活跃参数量控制在2000亿/query,有效平衡了模型的高容量与低推理成本。在训练优化环节,

By Ne0inhk

开源工具 CyberStrikeAI:AI驱动的自主渗透测试平台深度解析

CyberStrikeAI:AI驱动的自主渗透测试平台深度解析 项目简介 CyberStrikeAI(GitHub地址:https://github.com/Ed1s0nZ/CyberStrikeAI)是一款基于Golang开发的AI驱动的自主渗透测试平台。作为一款创新性的安全测试工具,它通过集成数百个内置安全工具、提供灵活的自定义工具扩展以及基于MCP协议的智能AI决策能力,将安全测试过程简化为自然语言对话,极大降低了渗透测试的门槛。 在当前网络安全形势日益严峻的背景下,传统渗透测试方法往往依赖于安全专家的丰富经验,耗时耗力且存在人为因素干扰。CyberStrikeAI的出现,为安全测试带来了革命性的变化,使安全测试变得如同与AI对话一般简单。 核心功能与技术亮点 1. AI智能代理与决策引擎 CyberStrikeAI集成了OpenAI兼容API(支持GPT、Claude、DeepSeek等),AI能够自主分析目标并选择最优的测试策略和工具组合。系统采用智能决策引擎,能够根据测试进展动态调整测试策略,实现真正的"自主渗透测试"。 2. MCP协议深度集成 MCP

By Ne0inhk