《从零搭建自主无人机》—2——硬件设备搭建及EGOPlanner实现

《从零搭建自主无人机》—2——硬件设备搭建及EGOPlanner实现

一、主要参考:

ZJU-FAST-Lab/ego-plannerhttps://github.com/ZJU-FAST-Lab/ego-planner【完结】从0制作自主空中机器人 | 开源 | 浙江大学Fast-Lab_哔哩哔哩_bilibilihttps://www.bilibili.com/video/BV1WZ4y167me/?spm_id_from=333.1387.favlist.content.click&vd_source=cc27dfcb640aa62a70874f5ec72a2143

二、硬件组成:

这里所用硬件设备:

1、OrangePi 5 MAX/ Inter NUC

2、Holybro Pixhawk 6C

3、Intel RealSense D435i Depth Camera

4、格式4s 2300mah 45C

5、HKSRC 2205-2450KV / T-Motor V2306-2400KV

6、HSKRC 45A / Formula 32 bit 45A

7、乾丰 51466 V2三叶五寸桨

=》备选方案:怪象35机架,银燕2004 2000kv,d90三叶桨,微空micoair743飞控,微空50a电调,4s或6s锂电池。

二、依赖源码安装:

1、安装 Fast-Drone-250 项目:

git clone https://github.com/ZJU-FAST-Lab/Fast-Drone-250 # 若无法 clone,可直接下载 ZIP 并解压 cd Fast-Drone-250/

2、realsense驱动安装:

sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE || sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE 
sudo add-apt-repository "deb https://librealsense.intel.com/Debian/apt-repo $(lsb_release -cs) main" -u
sudo apt-get install librealsense2-dkms sudo apt-get install librealsense2-utils sudo apt-get install librealsense2-dev sudo apt-get install librealsense2-dbg

然后运行realsense-viewer进行测试一下

3、安装ceres与glog与ddyanmic-reconfigure

解压 3rd_party.zip 压缩包,进入glog文件夹打开终端

cd glog ./autogen.sh && ./configure && make && sudo make install
sudo apt-get install liblapack-dev libsuitesparse-dev libcxsparse3 libgflags-dev libgoogle-glog-dev libgtest-dev

进入ceres文件夹打开终端:

mkdir build cd build cmake .. sudo make -j4 sudo make install sudo apt-get install ros-noetic-ddynamic-reconfigure

4、编译项目,仿真测试:

cd ~/Fast-Drone-250 catkin_make source devel/setup.bash # 测试运行 roslaunch ego_planner single_run_in_sim.launch 

在Rviz仿真:

三、实测:

分别在树林车库环境实机测试=》

四、总结:

参考:规划框架 | EGO planner 规划算法流程与ROS仿真_egoplanner-ZEEKLOG博客https://blog.ZEEKLOG.net/m0_61750953/article/details/144130349?ops_request_misc=&request_id=&biz_id=102&utm_term=egoplanner&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-144130349.142^v102^control&spm=1018.2226.3001.4187

高飞老师组的px4ctrl理解-ZEEKLOG博客https://blog.ZEEKLOG.net/m0_50633073/article/details/134885408?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522839fe5c3649219f8bd9bb539e7c8fb02%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=839fe5c3649219f8bd9bb539e7c8fb02&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_click~default-2-134885408-null-null.142^v102^control&utm_term=px4ctrl&spm=1018.2226.3001.4187

Read more

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

前言 * 你有没有发现,AI 正在悄悄渗透进我们的生活:写文案、画插图、做PPT、答作业,它几乎无所不能😍 !但很多人可能会问: AI,我能用吗?用得起吗?适合我吗?特别是中文用户,面对清一色英文界面、动辄上百元的 API 费用、还要“翻墙”的闭源大模型,常常望而却步😩。 * 好消息来了,文心一言4.5 正式开源,带着「能跑、好用、懂中文」的标签亮相😎。这不仅是一款中文大模型,更像是为中文用户量身定做的一把 AI 钥匙,让你在本地就能打开 AI 世界的大门!在这个“不会用 AI 就像不会用手机”的时代,早点上手,早点受益。 * 一起来轻松玩转文心大模型吧👉一文心大模型免费下载地址: https://ai.

By Ne0inhk
揭秘 AIGC 背后的技术:GPT、BERT 与 Transformer 模型的工作原理

揭秘 AIGC 背后的技术:GPT、BERT 与 Transformer 模型的工作原理

一、引言 AIGC 的崛起与重要性 人工智能生成内容(AIGC)已经不再是未来的技术,它正以惊人的速度渗透到各行各业,重新定义了内容创作、媒体生产、甚至人类认知的边界。从深度学习到大规模自然语言处理,AIGC 的崛起代表着一种新型的智能化革命,其核心技术依赖于 Transformer 架构、GPT 和 BERT 等模型。这些技术不仅推动了自然语言处理(NLP)的进步,还在自动化写作、代码生成、艺术创作等多个领域取得了突破性进展。 AIGC 之所以成为技术热潮,背后是其颠覆性的效率提升和创新应用。比如,通过 GPT,我们可以在几秒钟内生成一篇文章,而传统写作过程可能需要几小时,甚至几天。这种技术的普及,不仅大大降低了内容创作的门槛,还为个体创作者、企业甚至国家带来了前所未有的生产力提升。 本文目的与结构概述 本文将深入探讨 AIGC 背后的核心技术——Transformer、GPT 和 BERT,带你一步步了解它们的架构原理、训练机制及实际应用。

By Ne0inhk
从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

文章目录 * 从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南 💻✨ * 一、语法纠错:Copilot 如何成为你的“实时校对员” ✅ * 示例 1:自动修复缩进错误 * 示例 2:括号/引号自动闭合与修复 * 示例 3:类型注解缺失的智能补充 * 实战技巧:结合 Linter 使用 Copilot * 二、代码生成:从单行补全到完整函数实现 🧠⚡ * 示例 4:用注释驱动函数生成 * 示例 5:生成单元测试 * 示例 6:异步 HTTP 请求生成 * 三、调试辅助:Copilot 如何帮你“读懂”错误信息 🐞🔍 * 场景:遇到 `KeyError` 怎么办? * 场景:

By Ne0inhk
在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的全程实战记

在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的全程实战记

在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的搞笑实战记 本文分享了在昇腾 NPU 上部署测试 Llama-2-7B 大模型的全过程。提供踩坑经验。作者因其他硬件价格高、服务器昂贵,选择昇腾 NPU,其自主可控的达芬奇架构、完善的开源生态及 GitCode 免费测试资源是主要吸引力。文中详细介绍了 GitCode 上创建昇腾 Notebook 实例的关键配置、环境验证方法,以及安装 transformers 库、下载部署模型的步骤,还记录了遇到的 “torch.npu 找不到”“模型下载需权限” 等四个常见问题及解决方案。通过测试英文生成、中文对话、代码生成三种场景,得出 16-17 tokens/s 的吞吐量,虽低于预期但性能稳定,并给出使用 MindSpeed-LLM 框架、

By Ne0inhk