一:ROS2+gazebo+PX4环境搭建:环境搭建到无人机起飞

前言

写博客记录学习的过程。

由于博客是安装完环境后写的,因此实际可能会有一些出入,但是实际上也大差不差的。

环境搭建

前置环境

  • ROS2 humble
  • Gazebo Classic (11)

1.下载 PX4 源码

在你的 Home 目录下,用 Git 克隆 PX4 的代码仓库,并更新所有子模块。

git clone https://github.com/PX4/PX4-Autopilot.git --recursive

注意:由于这个源码中包含许多子模块,因此不建议到github主页下载zip再解压,这样做会缺失许多子模块。使用大陆的网络克隆起来会十分慢,因此强烈建议大家使用网络加速!

2.运行自动安装脚本

PX4 提供了自动化脚本,可以帮你安装编译仿真环境所需的所有依赖。

cd PX4-Autopilot bash ./Tools/setup/ubuntu.sh

由于我这里只用到仿真,并没有与阵势的硬件交互,所以我在运行自动安装脚本的时候,选择不安装固件/编译环境,还有一个原因是安装编译环境的时间太长了,大家可以自行选择。

cd PX4-Autopilot bash ./Tools/setup/ubuntu.sh --no-nuttx

3.编译并运行一个事例

PX4-Autopilot目录下

make px4_sitl gazebo-classic_iris

注意:第一次编译会有点慢,这是正常情况,请耐心等待

像这样弹出gazebo,并且gazebo中显示一个黑色的无人机,则成功了!

4.安装并配置 QGC(地面站)

QGroundControl (QGC) 就是你在地面监控和操控飞机的电脑软件 。安装前,需要先给 Ubuntu 系统做一点小配置,确保它能正常和“飞机”通信。

# 将你的用户添加到 dialout 组,以便访问 USB 设备 sudo usermod -aG dialout "$(id -un)" # 移除 ModemManager,它会干扰串口通信 sudo apt-get remove modemmanager -y # 安装 GStreamer 相关库,用于支持视频流 sudo apt install gstreamer1.0-plugins-bad gstreamer1.0-libav gstreamer1.0-gl -y sudo apt install libfuse2 -y sudo apt install libxcb-xinerama0 libxkbcommon-x11-0 libxcb-cursor-dev -y

https://docs.qgroundcontrol.com/master/zh/qgc-user-guide/getting_started/download_and_install.html中找到linux版本下载并将固件移到主目录下。

# 赋予 AppImage 文件执行权限 chmod +x ./QGroundControl-x86_64.AppImage

5.安装 Micro-XRCE-DDS-Agent(ROS2与PX4通信桥梁)

# 安装依赖 sudo apt install -y ros-humble-ros-base ros-humble-geometry-msgs ros-humble-sensor-msgs # 编译Micro-XRCE-DDS-Agent cd ~ git clone https://github.com/eProsima/Micro-XRCE-DDS-Agent.git cd Micro-XRCE-DDS-Agent mkdir build && cd build cmake .. make sudo make install sudo ldconfig /usr/local/lib/

注意:在编译Micro-XRCE-DDS-Agent时,对网络的要求很高,使用国内网络的朋友建议开启网络加速,即使开启了网络加速,也需要一定时间,此时需要耐心等待。

6.配置 PX4 的 ROS2 接口

cd ~/PX4-Autopilot # 你的PX4目录 # 安装Python依赖 pip3 install --user -U empy pyros-genmsg setuptools # mkdir -p ros2_ws/src cd ros2_ws/src # 克隆PX4消息包 git clone https://github.com/PX4/px4_msgs.git git clone https://github.com/PX4/px4_ros_com.git # 编译 cd .. colcon build

注意:在安装Python依赖时,可能会出现版本的问题,此时需要调整版本,反正我是用这个:

# 降级到稳定组合 pip3 install --user empy==3.3.4 setuptools==59.8.0

注意:每次创建PX4的工作空间,都要克隆PX4的消息包。

7.启动

# 终端1:启动Micro-XRCE-DDS-Agent(通信桥梁) MicroXRCEAgent udp4 -p 8888 # 终端2:启动Gazebo仿真 cd ~/PX4-Autopilot make px4_sitl gazebo-classic_iris # 或者其他机型:gazebo-classic_iris_depth_camera, gazebo-classic_iris_vision等 # 终端3:启动QGroundControl(可选,用于监控) ./QGroundControl-x86_64.AppImage # 终端4:进入工作空间再启动,无人机起飞! ros2 run px4_ros_com offboard_control

总结

本文章完成了ROS2 + gazebo classic + PX4的仿真环境搭建,对后续无人机仿真的学习打下了坚实的环境基础。

这篇文章是我第一次写的文章,有些不足的地方可及时指出,也请多多包容。

参考资料

PX4飞控官网:https://docs.px4.io/main/zh/

QCG地面站:https://qgroundcontrol.com/

Read more

吃透 AM32 无人机电调:从源码架构到工作原理的全方位解析(附实践指南)(上)

开篇:为什么要深度剖析 AM32 电调? 作为多旋翼无人机的 “动力心脏”,电调(电子调速器)的性能直接决定了无人机的飞行稳定性、响应速度和续航能力。而 AM32 系列电调凭借开源性、高性价比、适配性强三大优势,成为了开源无人机社区的热门选择 —— 从入门级的 2204 电机到专业级的 2306 电机,从 3S 锂电池到 6S 高压电池,AM32 都能稳定驱动。 但很多开发者和爱好者在接触 AM32 源码时,常会陷入 “看得懂代码,看不懂逻辑” 的困境:为什么 FOC 算法要做坐标变换?DShot 协议的脉冲怎么解析?保护机制是如何实时触发的? 这篇博客将从硬件基础→源码架构→模块解析→工作原理→实践操作五个维度,逐行拆解 AM32 电调固件源码,帮你彻底搞懂

基于阿里云ASR的AI电销机器人源码解析与部署指南

快速体验 在开始今天关于 基于阿里云ASR的AI电销机器人源码解析与部署指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 基于阿里云ASR的AI电销机器人源码解析与部署指南 背景痛点分析 传统电销系统在智能化转型过程中常遇到几个典型问题: 1. 语音识别准确率低:开源ASR模型在电话场景下(背景噪音、方言等)识别准确率普遍低于70%,导致后续意图分析失效 2. 并发处理能力弱:自建语音识别服务难以应对突发流量,

Rasa电商对话机器人调试实战

GLM-TTS 语音合成集成全指南 在电商对话系统日益智能化的今天,用户不再满足于冷冰冰的文字回复。一个能“说话”的客服机器人,不仅能提升用户体验,还能增强品牌温度——尤其是在订单播报、促销通知等高频交互场景中。而真正让语音助手“像人”的关键,不只是把文字转成声音,而是克隆真实服务人员的音色、传递恰当的情感、甚至精准读出“重”(chóng)新而不是“zhòng”新。 这正是 GLM-TTS 的价值所在:它不仅支持零样本语音克隆和中英混合合成,还具备音素级控制与流式输出能力,完美适配 Rasa 构建的电商对话机器人。本文基于多个实际项目整合经验,带你从零开始部署、调优并深度集成这套语音系统。 快速启动你的语音服务 最简单的方式是使用内置脚本一键拉起 Web 界面: cd /root/GLM-TTS source /opt/miniconda3/bin/activate torch29 bash start_app.

如何在PPT 中嵌入 VR 图片?如何在PPT中插入全景图片或Google相机空间图片进行播放?霹雳设计助手 VR 功能实操指南

如何在PPT 中嵌入 VR 图片?如何在PPT中插入全景图片或Google相机空间图片进行播放?霹雳设计助手 VR 功能实操指南

在产品展示、场景讲解、教学演示等诸多场景中,VR 图片凭借 360° 全视角的展示特性,能让观众获得沉浸式的视觉体验,相比普通图片和视频更具表现力。 但在传统的 PPT 演示中,想要展示 VR 图片却存在诸多不便,往往需要通过录屏、跳转浏览器或第三方软件的方式实现,操作流程的割裂不仅影响演示的连贯性,也让 VR 图片的沉浸式体验大打折扣。 霹雳设计助手的插入 VR 功能,实现了将 VR 图片直接嵌入 PPT 并在其中完成 360° 交互预览与放映的需求,无需切换外部软件,让 VR 图片的展示真正融入 PPT 演示流程。 本文将以实操为核心,详细讲解该功能的兼容特性、使用流程、功能操作及实操技巧,帮助不同领域的从业者快速掌握在 PPT 中嵌入和展示 VR 图片的方法,让沉浸式展示变得简单高效。 一、功能核心兼容特性与适用场景 在使用插入