ESP-Drone: 乐鑫 ESP32/ESP32-S2/ESP32-S3 开发的小型无人机解决方案

ESP-Drone: 乐鑫 ESP32/ESP32-S2/ESP32-S3 开发的小型无人机解决方案

目录

概述

1 主要特性

2 ESP-Drone无人机的硬件类型

3 硬件组装示意图

4 项目源代码


概述

ESP-Drone 是基于乐鑫 ESP32/ESP32-S2/ESP32-S3 开发的小型无人机解决方案,可使用手机 APP 或游戏手柄通过 Wi-Fi 网络进行连接和控制。该方案硬件结构简单,代码架构清晰,支持功能扩展,可用于 STEAM 教育等领域。

1 主要特性

ESP-Drone 具备以下特性:

支持自稳定模式 (Stabilize mode):自动控制机身水平,保持平稳飞行。支持定高模式 (Height-hold mode):自动控制油门输出,保持固定高度。支持定点模式 (Position-hold mode):自动控制机身角度,保持固定空间位置。支持 PC 上位机调试:使用 cfclient 上位机进行静态/动态调试。支持 APP 控制:使用手机 APP 通过 Wi-Fi 轻松控制。支持游戏手柄 (gamepad) 控制:通过 cfclient 使用游戏手柄轻松控制。

主要组件

ESP-Drone 2.0 使用模块化的设计思路,由主控板和扩展板组成。

主控制板:搭载 ESP32-S2 模组和支持基础飞行的必要传感器,并提供硬件扩展接口。扩展板:搭载扩展传感器,可对接主控制板的硬件扩展接口,支持高级飞行功能。

序号

模块名

主要元器件

功能

接口

安装位置

1

主控制板 - ESP32-S2

ESP32-S2-WROVER + MPU6050

基础飞行

提供 I2C SPI GPIO 扩展接口

2

扩展板 - 定点模块

PMW3901 + VL53L1X

室内定点飞行

SPI + I2C

底部,面向地面

3

扩展板 - 气压定高模块

MS5611 气压

气压定高

I2C 或 MPU6050 从机

顶部或底部

4

扩展板 - 指南针模块

HMC5883 罗盘

无头模式等高级模式

I2C 或 MPU6050 从机

顶部或底部

扩展配置

扩展板

主要传感器

功能

接口

安装位置

扩展板- 定点模块

PMW3901 + VL53L1X

室 内定点飞行

SPI + I2C

底部 ,面向地面

扩展板-气 压定高模块

MS5611 气压

气压定高

I2C 或 MPU6050从机

顶部或底部

扩展板 -指南针模块

HMC5883 罗盘

无头模式 等高级模式

I2C 或 MPU6050从机

顶部或底部

2 ESP-Drone无人机的硬件类型

开发板名

主要配置

备注

ESP32-S2-Drone V1.2

ESP32-S2-WROVER + MPU6050

一体化

ESPlane-V2-S2

ESP32-S2-WROVER + MPU6050

需安装脚架

ESPlane-FC-V1

ESP32-WROOM-32D + MPU6050

需安装机架

1) ESP32-S2-Drone V1.2

配置清单如下:

基础配置清单

数量

备注

主板

1

ESP32-S2-WROVER + MPU6050

716 电机

4

可配置 720 电机

716 电机橡胶圈

4

46mm 螺旋桨 A

2

可配置 55mm 桨

46mm 螺旋桨 B

2

300mAh 1s 锂电池

1

可配置 350mAh 高倍率

1s 锂电池充电板

1

8-pin 25 mm 排针

2

2) ESPlane-V2-S2

3)ESPlane-FC-V1

配置清单如下:

配置清单

数量

备注

主板

1

ESP32-WROOM-32D + MPU6050

机架

1

46 mm 螺旋桨 A

2

46 mm 螺旋桨 B

2

300 mAh 1s 锂电池

1

1s 锂电池充电板

1

3 硬件组装示意图

4 项目源代码

测试版本代码,目前放在 GitHub 仓库,可使用 git 工具获取:

git clone https://github.com/espressif/esp-drone.git

项目软件主要由飞控内核、硬件驱动和依赖库组成:

  • 飞控内核来自 Crazyflie 开源工程,主要包括硬件抽象层和飞控程序。
  • 硬件驱动按照硬件接口进行了文件结构划分,包括 I2C 设备和 SPI 设备等。
  • 依赖库包括 ESP-IDF 提供的默认组件,以及来自第三方的 DSP 等。

Read more

组建龙虾团队——OpenClaw多机器人构建

组建龙虾团队——OpenClaw多机器人构建

成功搭建了OpenClaw,也成功建立的自己的每日服务,这时候发现,似乎不太敢在当前的机器人中让他做别的事情,生怕会话太多会让他出现遗忘。(尽管我们配置了QMD记忆增强,但毋庸置疑任何技术都是有上限的)。 换做同样的情况,比如在DeepSeek或者豆包之类的对话窗口,我们会习惯性地新建一个对话。那么我们是否可以新建一个机器人,或者多个机器人,让他们各司其职,各尽所能,形成一个相互配合的团队呢~开干吧,没什么不可能的!! 🦞新建一个机器人 来到飞书开发者后台,新创建一个应用,在这里我们以短视频剪辑脚本应用为例。 创建之后,由于我们的openclaw绑定的是之前的飞书渠道,并没有链接到这个应用的APP ID,所以暂时不做其他操作,只需要记录一下他的APP ID和APP Secret。 🦞配置OpenClaw 如果还是按照claw的命令行安装,每一步都有些让人担心害怕,毕竟我们先前已经配置过一次了,接下来的操作,需要小心是否会把以前的配置给覆盖掉。 为了避免这样的不确定性,我们直接去操作他的配置文件 在WSL2终端中进入openclaw目录 cd .openclaw

基于vivado license的FPGA教学平台构建实例

打造低成本、高效率的FPGA教学平台:Vivado License的实战管理与部署 在电子工程教育中,FPGA(现场可编程门阵列)早已不是“前沿技术”,而是数字系统设计课程的 标准配置 。然而,当高校真正要建设一个面向百名学生的实验环境时,摆在面前的第一个难题往往不是开发板选型或课程设计——而是: 如何让每个学生都能顺利打开Vivado? 答案的关键,藏在一个看似不起眼却至关重要的环节里: 许可证(License)管理 。 Xilinx的Vivado Design Suite功能强大,但它的使用门槛并不仅仅在于学习Verilog或理解时序约束,更现实的问题是——没有有效的license,连综合都跑不起来。如果每位学生都需要独立授权,成本将迅速失控。本文将带你从实际出发,拆解一套 基于Vivado License的FPGA教学平台构建方案 ,不仅讲清原理,更聚焦于 可落地的部署策略、常见坑点和优化技巧 ,帮助你在有限预算下,搭建出稳定、易管、可扩展的教学系统。 为什么License成了教学瓶颈? 我们先来看一组真实场景中的矛盾: * 某高校开设《数字逻辑与EDA技术》课程

MIT室内场景识别数据集-15,571张图片 室内场景识别 机器人导航 智能建筑 深度学习 机器学习 语义理解 安防监控 虚拟现实`

MIT室内场景识别数据集-15,571张图片 室内场景识别 机器人导航 智能建筑 深度学习 机器学习 语义理解 安防监控 虚拟现实`

🏢 MIT室内场景识别数据集-15,571张图片-文章末添加wx领取数据集 * 📦 已发布目标检测数据集合集(持续更新) * 🏢 MIT室内场景识别数据集介绍 * 📌 数据集概览 * 包含类别 * 🎯 应用场景 * 🖼 数据样本展示 * 使用建议 * 🌟 数据集特色 * 📈 商业价值 * 🔗 技术标签 * YOLOv8 训练实战 * 📦 1. 环境配置 * 安装 YOLOv8 官方库 ultralytics * 📁 2. 数据准备 * 2.1 数据标注格式(YOLO) * 2.2 文件结构示例 * 2.3 创建 data.yaml 配置文件 * 🚀 3. 模型训练 * 关键参数补充说明: * 📈 4. 模型验证与测试 * 4.1 验证模型性能 * 关键参数详解 * 常用可选参数 * 典型输出指标 * 4.2 推理测试图像

AR眼镜光学镜头设计实例(含核心技巧解析)

AR眼镜光学镜头设计实例(含核心技巧解析)

AR眼镜光学镜头设计实例(含核心技巧解析) 一、应用领域 聚焦AR全场景交互需求,核心服务于消费级AR眼镜(需虚实画面叠加、轻量化佩戴)、工业AR(需远程协作标注、设备维修指引)、医疗AR(需手术视野导航、解剖结构叠加),解决传统AR镜头“视场角窄、重影眩晕、光学效率低”的痛点。 二、设计规格(关键指标与实现逻辑) • 视场角(FOV):50°(对角) 采用“自由曲面+微显示适配”技巧,通过非对称自由曲面透镜(打破旋转对称限制),将微显示屏(0.7英寸Micro-OLED)的画面投射至人眼,实现50°对角视场,覆盖人眼自然视野的30%,避免“通过小窗口看世界”的局限,提升沉浸感。 • 眼动距(Eye Relief):20mm 运用“光路折叠设计”技巧,