ROS2机器人slam_toolbox建图零基础

系统:Ubuntu22.04

ROS2版本:Humble

雷达设备:rplidar_a1

一、安装必要的软件包

# 更新系统 sudo apt update
# 安装slam_toolbox sudo apt install ros-humble-slam-toolbox
# 安装RPLidar驱动 sudo apt install ros-humble-rplidar-ros
# 安装导航相关包 sudo apt install ros-humble-navigation2 ros-humble-nav2-bringup

二、配置RPLidar_A1

创建udev规则(让系统识别雷达)

# 创建udev规则 echo 'KERNEL=="ttyUSB*", ATTRS{idVendor}=="10c4", ATTRS{idProduct}=="ea60", MODE:="0666", GROUP:="dialout", SYMLINK+="rplidar"' | sudo tee /etc/udev/rules.d/rplidar.rules
# 重新加载udev规则 sudo udevadm control --reload-rules sudo udevadm trigger

重新插拔雷达USB线

测试雷达连接

# 查看雷达是否被识别 ls -l /dev | grep ttyUSB # 应该看到类似:lrwxrwxrwx 1 root root 7 Nov 6 10:20 rplidar -> ttyUSB0

三、启动雷达

# 启动RPLidar A1 ros2 launch rplidar_ros rplidar_a1_launch.py
# 在另一个终端检查激光数据 ros2 topic echo /scan --no-arr | head -5 #这一步有报错很正常,因为我们只看前5行的数据

四、创建SLAM启动文件

# 创建工作空间目录(如果还没有) mkdir -p ~/slam_ws/src cd ~/slam_ws/src
# 创建功能包(如果需要) ros2 pkg create my_slam --build-type ament_cmake --dependencies rclcpp slam_toolbox nav2_msgs
# 创建launch目录 mkdir -p ~/slam_ws/src/my_slam/launch

创建启动文件

nano ~/slam_ws/src/my_slam/launch/slam_with_rplidar.launch.py

添加以下代码:

import launch from launch_ros.actions import Node from launch.actions import DeclareLaunchArgument from launch.substitutions import LaunchConfiguration def generate_launch_description(): # 定义启动参数 use_sim_time = LaunchConfiguration('use_sim_time', default='false') # RPLidar A1 节点 rplidar_node = Node( package='rplidar_ros', executable='rplidar_node', name='rplidar_node', parameters=[{ 'serial_port': '/dev/rplidar', 'serial_baudrate': 115200, 'frame_id': 'laser', 'inverted': False, 'angle_compensate': True, 'scan_mode': 'Standard' }], output='screen' ) # slam_toolbox 节点 slam_toolbox_node = Node( package='slam_toolbox', executable='async_slam_toolbox_node', name='slam_toolbox', output='screen', parameters=[{ 'use_sim_time': use_sim_time, 'map_frame': 'map', 'odom_frame': 'odom', 'base_frame': 'base_link', 'scan_topic': '/scan', 'mode': 'mapping', # 建图模式 'resolution': 0.05, # 地图分辨率 'max_laser_range': 12.0, # 最大激光范围 }] ) # 静态TF发布 - 定义雷达位置 static_tf_laser = Node( package='tf2_ros', executable='static_transform_publisher', name='static_transform_publisher_laser', arguments=['0', '0', '0.1', '0', '0', '0', 'base_link', 'laser'] ) # 静态TF发布 - 定义base_link到odom的初始位置 static_tf_odom = Node( package='tf2_ros', executable='static_transform_publisher', name='static_transform_publisher_odom', arguments=['0', '0', '0', '0', '0', '0', 'odom', 'base_link'] ) return launch.LaunchDescription([ DeclareLaunchArgument('use_sim_time', default_value='false'), rplidar_node, static_tf_laser, static_tf_odom, slam_toolbox_node, ])

添加依赖

cd ~/slam_ws/src/my_slam nano CMakeLists.txt

将内容修改为:

cmake_minimum_required(VERSION 3.8) project(my_slam) if(CMAKE_COMPILER_IS_GNUCXX OR CMAKE_CXX_COMPILER_ID MATCHES "Clang") add_compile_options(-Wall -Wextra -Wpedantic) endif() # find dependencies find_package(ament_cmake REQUIRED) find_package(rclcpp REQUIRED) find_package(slam_toolbox REQUIRED) find_package(nav2_msgs REQUIRED) # 添加这行:安装launch目录 install(DIRECTORY launch DESTINATION share/${PROJECT_NAME} ) if(BUILD_TESTING) find_package(ament_lint_auto REQUIRED) # the following line skips the linter which checks for copyrights # comment the line when a copyright and license is added to all source files set(ament_cmake_copyright_FOUND TRUE) # the following line skips cpplint (only works in a git repo) # comment the line when this package is in a git repo and when # a copyright and license is added to all source files set(ament_cmake_cpplint_FOUND TRUE) ament_lint_auto_find_test_dependencies() endif() ament_package()

这一步主要添加了launch目录:

install(DIRECTORY launch

    DESTINATION share/${PROJECT_NAME}        

)

五、构建工作空间

cd ~/slam_ws colcon build source install/setup.bash

六、启动完整的SLAM系统

# 终端1:启动SLAM和雷达 ros2 launch my_slam slam_with_rplidar.launch.py # 终端2:启动RViz2 ros2 run rviz2 rviz2

七、配置RViz2显示建图过程

在RViz2中:

1、修改Fixed Frame:

        Global Option---->Fixed Frame:设置为 map

2、添加显示项(点击Add按钮)

        LaserScan:

                Topic :  /scan

                Size : 0.1

                Color : 红色或绿色

        Map:

                Topic : /map

                Color Scheme : costmap

                Draw Behind : √

TF:

        显示坐标框架关系

3、保存RViz配置

file---->Save Config As ----> ~/slam_ws/slam_config.rviz

 八、开始建图

1、缓慢移动雷达在环境中行走

2、观察RViz中的建图过程

3、确保覆盖所有区域

九、保存地图

建图完成后,保存地图:

ros2 run nav2_map_server map_saver_cli -f ~/my_first_map

Read more

llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 llama.cpp 的作者所开发。 现在 llama.cpp 迎来重大更新,它也有了自己的 Web UI,我测试了安装部署和自行打包,很多地方确实比 Ollama 还有方便好用。 官方介绍,优势如下: * 完全免费、开源且由社区驱动 * 在所有硬件上表现出色 * 高级上下文和前缀缓存 * 并行和远程用户支持 * 极其轻量级且内存高效 * 充满活力且富有创造力的社区 * 100% 隐私 使用之前需要先安装 llama.cpp server 我还是喜欢命令行直接安装 ## Winget (Windows)winget install llama.cpp## Homebrew (Mac and Linux)brew install llama.

污泥清淤机器人实践复盘分享

污泥清淤机器人实践复盘分享

污泥清淤机器人实践复盘:从行业痛点看智能化解决方案 在化工、市政、河道治理等众多领域,清淤作业长期面临着安全风险高、效率低下、环境影响大等严峻挑战。传统人工作业方式在有毒有害、密闭缺氧的环境中难以为继,行业对安全、高效、智能的清淤解决方案需求迫切。近年来,以清淤机器人为代表的特种作业装备快速发展,为行业带来了革命性的变化。本文旨在通过实践复盘,深入探讨清淤机器人的应用价值、技术要点与发展趋势。 一、行业痛点催生技术变革 清淤作业,尤其是工业场景下的清淤,绝非简单的体力劳动。行业报告显示,在化工厂、钢铁冶金、污水处理厂等场所,作业环境往往伴随着高浓度有毒有害化学物质、污泥厌氧分解产生的易燃易爆气体,以及密闭空间氧气不足导致的窒息风险。人工清淤事故频发,使得安全规范日益严格,传统作业模式已触及瓶颈。 与此同时,市政管网、水库涵洞、港口航道等受限空间的清淤需求巨大,但空间狭小、环境复杂,人员与大型设备均难以进入。这些痛点共同构成了对“人不能近、人不能及、人不能为”作业场景的精准描述,也成为了推动水下清淤机器人等智能装备从研发走向广泛应用的核心驱动力。 二、清淤机器人的核心技术与

破局新农业数智化困境:低代码不是“捷径”,而是重构生产逻辑的技术密钥

破局新农业数智化困境:低代码不是“捷径”,而是重构生产逻辑的技术密钥

作为IT互联网产品技术从业者,笔者长期关注各行业数智化转型落地场景,发现一个极具反差感的现象:一边是国家政策持续加码智慧农业,2025年中央一号文件明确支持拓展人工智能、数据等技术在农业领域的应用场景,资本也在不断涌入农业数智化赛道;另一边是绝大多数农业主体(尤其是中小农户、乡镇合作社)仍被困在“不会用、用不起、用不好”的死循环里,所谓的“数智化解决方案”,要么是脱离实际场景的“空中楼阁”,要么是成本高企、运维复杂的“沉重包袱”。        很多人将新农业数智化的瓶颈归结为“农业从业者数字化素养低”“农村基础设施落后”,但笔者始终认为,核心矛盾不在于“人”和“硬件”,而在于“技术供给与农业场景需求的严重错配”。传统IT开发模式下,农业数智化系统开发周期长、定制化难度大、运维成本高,根本无法适配农业场景碎片化、需求多样化、预算有限化的核心特征——你不可能让一个种植合作社花几十万、等半年,去开发一套仅用于蔬菜大棚环境监测的系统;也不可能让一个农户,去操作一套需要专业IT技能才能运维的复杂平台。        就在行业陷入“两难”之际,低代码平台的崛起,似乎为新农业数智

多模态学习(五):基于可变形注意力的无人机可见光-红外图像配准算法解析

1. 引言:当无人机“双眼”看到的世界不一样 大家好,我是老张,一个在AI和无人机视觉领域摸爬滚打了十来年的工程师。今天想和大家聊聊一个听起来有点专业,但实际上非常“接地气”的问题:怎么让无人机上的“两只眼睛”看到同一个东西? 想象一下,你操控的无人机上装了两台相机:一台是我们日常用的可见光相机,能拍出色彩斑斓的画面;另一台是红外热成像相机,能在黑夜或雾霾中“看见”物体散发的热量。这本来是件好事,相当于给无人机开了“天眼”。但现实很骨感,由于这两台相机安装位置、镜头视角不可能完全一致,它们拍下的同一场景,在图像上往往是错位的。这就好比你的左眼和右眼看到的画面对不上,不仅看着头晕,更严重的是,当你用这些错位的图像去做目标检测、跟踪或者融合时,结果会一塌糊涂。 这就是“可见光-红外图像配准”要解决的核心问题。简单说,就是通过算法计算,把红外图像“掰正”,让它和可见光图像在空间上严丝合缝地对齐。过去,学术界很多研究都默认这两幅图是已经对齐好的,直接拿来做后续分析。但实际飞过无人机的朋友都知道,这纯属理想情况。