《从零搭建自主无人机》—2——硬件设备搭建及EGOPlanner实现

《从零搭建自主无人机》—2——硬件设备搭建及EGOPlanner实现

一、主要参考:

ZJU-FAST-Lab/ego-plannerhttps://github.com/ZJU-FAST-Lab/ego-planner【完结】从0制作自主空中机器人 | 开源 | 浙江大学Fast-Lab_哔哩哔哩_bilibilihttps://www.bilibili.com/video/BV1WZ4y167me/?spm_id_from=333.1387.favlist.content.click&vd_source=cc27dfcb640aa62a70874f5ec72a2143

二、硬件组成:

这里所用硬件设备:

1、OrangePi 5 MAX/ Inter NUC

2、Holybro Pixhawk 6C

3、Intel RealSense D435i Depth Camera

4、格式4s 2300mah 45C

5、HKSRC 2205-2450KV / T-Motor V2306-2400KV

6、HSKRC 45A / Formula 32 bit 45A

7、乾丰 51466 V2三叶五寸桨

=》备选方案:怪象35机架,银燕2004 2000kv,d90三叶桨,微空micoair743飞控,微空50a电调,4s或6s锂电池。

二、依赖源码安装:

1、安装 Fast-Drone-250 项目:

git clone https://github.com/ZJU-FAST-Lab/Fast-Drone-250 # 若无法 clone,可直接下载 ZIP 并解压 cd Fast-Drone-250/

2、realsense驱动安装:

sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE || sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE 
sudo add-apt-repository "deb https://librealsense.intel.com/Debian/apt-repo $(lsb_release -cs) main" -u
sudo apt-get install librealsense2-dkms sudo apt-get install librealsense2-utils sudo apt-get install librealsense2-dev sudo apt-get install librealsense2-dbg

然后运行realsense-viewer进行测试一下

3、安装ceres与glog与ddyanmic-reconfigure

解压 3rd_party.zip 压缩包,进入glog文件夹打开终端

cd glog ./autogen.sh && ./configure && make && sudo make install
sudo apt-get install liblapack-dev libsuitesparse-dev libcxsparse3 libgflags-dev libgoogle-glog-dev libgtest-dev

进入ceres文件夹打开终端:

mkdir build cd build cmake .. sudo make -j4 sudo make install sudo apt-get install ros-noetic-ddynamic-reconfigure

4、编译项目,仿真测试:

cd ~/Fast-Drone-250 catkin_make source devel/setup.bash # 测试运行 roslaunch ego_planner single_run_in_sim.launch 

在Rviz仿真:

三、实测:

分别在树林车库环境实机测试=》

四、总结:

参考:规划框架 | EGO planner 规划算法流程与ROS仿真_egoplanner-ZEEKLOG博客https://blog.ZEEKLOG.net/m0_61750953/article/details/144130349?ops_request_misc=&request_id=&biz_id=102&utm_term=egoplanner&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-144130349.142^v102^control&spm=1018.2226.3001.4187

高飞老师组的px4ctrl理解-ZEEKLOG博客https://blog.ZEEKLOG.net/m0_50633073/article/details/134885408?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522839fe5c3649219f8bd9bb539e7c8fb02%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=839fe5c3649219f8bd9bb539e7c8fb02&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_click~default-2-134885408-null-null.142^v102^control&utm_term=px4ctrl&spm=1018.2226.3001.4187

Read more

手把手教你使用 Faster-Whisper 实时语音输入转文本,本地部署教程

手把手教你使用 Faster-Whisper 实时语音输入转文本,本地部署教程

文章目录 * 前言 * 一、安装环境 * 二、使用步骤 * 1.下载模型 * 2.实时录音转文本脚本 * 3.报错解决方法 * 总结 前言 要想实现像豆包、微信等一样的语音输入功能,通常有两种主流方案:云端 API(轻量、准确度极高)和 本地模型(免费、隐私、无需联网)。由于目前开发的系统需要添加一个语音识别功能,刚好记录一下使用 Faster-Whisper 实时语音输入转文本。Faster-Whisper官网地址链接: Faster-Whisper官网地址 复现成功如下图所示,请看下文教程就能部署本地实时语音输入转文本模型: 电脑有显卡的话可以参考下面这篇文章安装 cuda 和 cudnn cuda和cudnn的安装教程: cuda和cudnn的安装教程(全网最详细保姆级教程) 一、安装环境 在你的虚拟环境安装 faster-whisper,命令如下: pip install faster-whisper 安装录音库

AI绘画新体验:圣光艺苑一键生成鎏金画框艺术品(含提示词秘籍)

AI绘画新体验:圣光艺苑一键生成鎏金画框艺术品(含提示词秘籍) 1. 为什么说“圣光艺苑”不是又一个AI绘图工具? 你试过在深夜调了27次参数,只为让AI画出一张不歪脖子、不三只手、背景不糊成浆糊的肖像吗? 你是否也曾在一堆冷冰冰的滑块、下拉菜单和英文报错中,忘了自己最初想画的是什么——不是技术,而是一幅能挂在墙上的画。 圣光艺苑不一样。 它不叫“WebUI”,不标“v2.3.5-beta”,没有“CFG Scale”“Denoising Strength”这类让人皱眉的术语。它的界面是亚麻布纹理的,主色调是梵高《星空》里的深蓝与《向日葵》中的金黄;你输入的不是“prompt”,而是“绘意”;你排除的不是“negative prompt”,而是“避讳”;你启动的不是“Generate”,而是“🏺 挥毫泼墨”。 这不是把SDXL塞进一个漂亮外壳——它是把4090显卡的算力,

AI时代下的低代码复兴:开发民主化的新机遇

AI时代下的低代码复兴:开发民主化的新机遇

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI时代下的低代码复兴:开发民主化的新机遇 🚀 * 引言:打破编程的“围城” * 第一部分:回望过去——低代码的兴衰与转型 * 1.1 传统低代码的痛点 * 1.2 枯木逢春:AI带来的“认知革命” * 第二部分:架构解析——AI是如何驱动低代码的? * 第三部分:实战演练——代码改变低代码 * 3.1 场景:构建一个“客户反馈管理系统” * 3.2 进阶:AI自动修复与优化 * 第四部分:机遇与挑战——谁乘风破浪? * 4.1 谁是受益者? * 4.

虚幻版Pico大空间VR入门教程 04 —— PicoOpenXR和PicoXR插件对于PDC串流、SteamVR串流、OpenXR串流对比 和 手势追踪对比

虚幻版Pico大空间VR入门教程 04 —— PicoOpenXR和PicoXR插件对于PDC串流、SteamVR串流、OpenXR串流对比 和 手势追踪对比

省流 串流方式最重要,笔者使用【Pico4UE 企业版】一体机,使用【PicoOpenXR插件+OpenXR插件】【企业串流v2.0的apk+exe应用】和【OpenXR串流方式】进行有线串流, 串流调试时可以正常手势追踪,打包apk和exe的VR手势追踪正常。 文章包含整理的百度云资源、SteamVR串流、不同UE版本的手势追踪对比记录,曾经的踩坑笔记(略长)。 插件文档 PicoXR和PicoOpenXR 插件文档 https://developer-cn.picoxr.com/document/ PicoXR 开发文档 https://developer-cn.picoxr.com/document/unreal/ PicoOpenXR 开发文档 https://developer-cn.picoxr.com/document/unreal-openxr/ 插件下载 PicoXR和PicoOpenXR Pico SDK