无人机地面站QGC的安装(ubuntu20.04)

无人机地面站QGC的安装(ubuntu20.04)

1.安装依赖

使用以下命令:

sudo usermod -a -G dialout $USER sudo apt-get remove modemmanager -y sudo apt install gstreamer1.0-plugins-bad gstreamer1.0-libav gstreamer1.0-gl -y sudo apt install libfuse2 -y sudo apt install libxcb-xinerama0 libxkbcommon-x11-0 libxcb-cursor0 -y

2.下载安装包

可以直接去官网下载,链接地址:https://docs.qgroundcontrol.com/master/en/qgc-user-guide/getting_started/download_and_install.html

或者使用网盘提供的安装包:

链接: https://pan.baidu.com/s/1repLyfhynSfh_rwJuwSKYg?pwd=h5mi 提取码: h5mi

下载后改个名称:

mv QGroundControl.appimage QGroundControl.AppImage

3.安装

默认安装包下载到Downloads下面的。

cd ~/Downloads/ chmod +x QGroundControl.AppImage ./QGroundControl.AppImage

4问题

如果QGC打开一直不显示地图或者为白,可能的原因就是因为网络原因,导致地图数据下载失败。

直接下载我提供的安装数据

链接: https://pan.baidu.com/s/1PL5dz9UN92Hwl6jan4TGJg?pwd=42xj 提取码: 42xj 下载后直接解压。

执行命令

rm -rf ~/.cache/QGCMapCache300 cp -r ./QGCMapCache300 ~/.cache/

再次运行QGroundControl.AppImage,就能运行成功。

参考来源:https://blog.ZEEKLOG.net/weixin_55944949/article/details/130895363

Read more

Retinaface+CurricularFace一文详解:RetinaFace检测+CurricularFace识别双模型协同原理

Retinaface+CurricularFace一文详解:RetinaFace检测+CurricularFace识别双模型协同原理 人脸识别技术早已不是实验室里的概念,而是深入到考勤打卡、门禁通行、身份核验等日常场景中的实用工具。但真正落地时,很多人会发现:单靠一个“端到端”的黑盒模型,效果不稳定、调试无从下手、换张侧脸图就失效——问题往往不出在算法本身,而在于检测与识别两个环节的割裂。 RetinaFace + CurricularFace 这套组合,不是简单拼凑,而是一次有明确分工、深度协同的工程化设计:RetinaFace 负责“找得准”,CurricularFace 负责“认得牢”。它不追求参数量最大,而是把每一步都落在实处——人脸在哪、怎么对齐、特征怎么提、相似度怎么算,全都透明可查、可控可调。本文不讲论文公式,不堆架构图,只带你理清这套镜像背后的真实逻辑:为什么是 RetinaFace 而不是 YOLO?为什么选 CurricularFace 而非 ArcFace?两个模型之间到底发生了什么?

无人机 5.8G 模拟图传电路设计方案及性能分析

一、什么是 5.8G 模拟图传? 简单说,5.8G 模拟图传就是无人机的 “千里眼”,能把天上拍的画面实时传到地面。你在遥控器上看到的无人机视角,全靠它来实现。 为啥是 5.8G?因为这个频段干扰少,就像高速路上车少,信号跑起来更顺畅。而且模拟信号传输快,延迟低,特别适合 FPV 竞速这种需要快速反应的场景 —— 总不能无人机都撞墙了,你才在屏幕上看到障碍物吧? 二、工作原理:信号的 “旅行记” 2.1 信号采集:无人机的 “眼睛” 无人机上的摄像头就像手机相机,能把看到的景象变成电信号。但这时候的信号很弱,还带着 “杂音”,就像说话含着口水,听不清。 这时候会经过两步处理: * 过滤杂音:用低通滤波器 “过滤” 掉高频噪音,就像用滤网把水里的沙子去掉。 * 信号放大:放大器把信号变强,

【讨论】VR + 具身智能 + 人形机器人:通往现实世界的智能接口

【讨论】VR + 具身智能 + 人形机器人:通往现实世界的智能接口

摘要:本文探讨了“VR + 具身智能 + 人形机器人”作为通往现实世界的智能接口的前沿趋势。文章从技术融合、应用场景、商业潜力三个维度分析其价值,涵盖工业协作、教育培训、医疗康复、服务陪护等领域,并展望VR赋能下的人机共生未来,揭示具身智能如何推动机器人真正理解、感知并参与现实世界。 VR + 具身智能 + 人形机器人:通往现实世界的智能接口 文章目录 * VR + 具身智能 + 人形机器人:通往现实世界的智能接口 * 一、引言:三股力量的融合,正在重塑现实世界 * 二、具身智能:让AI拥有“身体”的智慧 * 1. 什么是具身智能(Embodied Intelligence) * 2. 为什么VR是具身智能的“孵化器” * 三、VR + 具身智能 + 人形机器人:协同结构与原理 * 1. 系统组成 * 2. 人类的“

【OpenClaw】揭秘 Secure DM Pairing:如何为你的 AI 机器人构建安全私信访问机制

【OpenClaw】揭秘 Secure DM Pairing:如何为你的 AI 机器人构建安全私信访问机制 在构建基于 LLM 的聊天机器人(如 Telegram、WhatsApp Bot)时,如何控制谁能与机器人对话是一个核心安全问题。直接开放访问可能导致 Token 滥用,而手动配置白名单又过于繁琐。 OpenClaw 提供了一套优雅的解决方案,称为 “Secure DM Pairing” (安全私信配对)。本文将深入解析这套机制的运作流程、使用指令以及底层的代码实现。 注意本文基于 OpenClaw v2026.1.29 版本源码分析。 1. 什么是 Secure DM Pairing? Secure DM Pairing 是 OpenClaw 网关默认的一种访问控制策略。 当一个未授权的用户首次通过私信(Direct Message)