低成本开源!ESP32轮腿机器人实战

低成本开源!ESP32轮腿机器人实战

低成本开源!ESP32-S3轮腿机器人实战:自平衡+身高调节,语音控制在路上

作为机器人爱好者,你是否想亲手打造一款兼具灵活性与功能性的轮腿机器人,却担心成本过高、技术门槛难跨越?今天给大家分享一个超实用的开源项目——L在这里插入代码片eTian-robot2,一款基于ESP32-S3的低成本轮腿机器人,不仅实现了自平衡、身高调节、无线控制等核心功能,还开源了全部PCB、原理图和代码,新手也能跟着复刻!

在这里插入图片描述

一、项目初衷:从模仿到创新,解锁轮腿机器人的更多可能

这款机器人的灵感来源于大名鼎鼎的Ascento机器人,最初的设计目标是通过实践学习控制算法,最终实现酷炫的跳跃功能。虽然受限于理论知识储备,跳跃功能的建模仿真与实物落地预计要到明年6月才能完成,但目前已成功实现自平衡、身高调节、无线控制三大核心功能,后续还将迭代离线语音控制,性价比直接拉满!

更值得一提的是,项目完全开源,从PCB设计图、原理图、三维模型到BOM清单,所有资源都能免费获取,大大降低了制作门槛,让更多爱好者能参与到轮腿机器人的研发与优化中。

二、硬件篇:低成本选材,兼顾性能与性价比

1. 核心主控与PCB设计

机器人的“大脑”选用ESP32-S3-WROOM-1-N8芯片,兼顾高性能与低功耗,支持离线语音识别,为后续功能升级埋下伏笔。PCB设计全程使用立创EDA专业版完成,机械结构绘图则采用CAD和Solidworks,整体尺寸仅48*48mm,小巧精致,便于安装部署。

PCB历经V2.0和V3.0两个版本迭代:

  • V2.0版本采用3层连接设计,主控与电机驱动分离,电机驱动使用L6234D芯片,双路升压芯片供电,但成本较高,暂不推荐量产;

V3.0为最终版(受疫情影响暂未拿到实物),将电机驱动全部集成到ESP32-S3主控,简化结构、降低成本,目前暂时采用“V2.0主控+电源层+4010电机单独驱动”的组合方案。

在这里插入图片描述

2. 关键元器件选型(低成本核心)

  • 动力系统:足部采用4010无刷电机直驱,车轮与电机过盈配合,传动效率高;腿部用舵机控制,搭配XH2.54 3P接口,安装便捷。
  • 驱动与稳压:选用DRV8313作为驱动芯片,峰值电流2.5A,专门适配10欧姆左右的云台电机;稳压方面采用LM2596提供稳定5V电压,为舵机供电更可靠。
  • 传感器:板载MPU6050姿态传感器,精准采集机器人姿态数据,为自平衡算法提供核心支撑。

通讯与供电:集成CH340K串口芯片,通过Type-C接口实现电脑通讯与程序下载;电源支持XT60接口输入,采用3S锂电池供电,续航持久。

在这里插入图片描述

3. 丰富接口,拓展性拉满

PCB板预留了丰富的接口,满足后续功能扩展需求:

  • 两路舵机接口、两路无刷电机接口;
  • 两路IIC接口、四路SPI接口;
  • 两路FPC 0.5mm 8P LCD接口,可连接两个1.28寸圆形屏幕;
  • IO 0按键和RST复位按键,方便调试与重启。

三、软件篇:简单易上手,核心算法开源可复用

1. 开发平台与核心框架

代码开发基于VScode platform平台,主控运行ESP32 RTOS实时操作系统,通过多任务调度实现高效控制。电机驱动采用SimpleFOC算法,运行在扭矩模式下,稳定性更强,适合轮腿机器人的动力控制需求。

2. 核心功能实现逻辑

  • 双任务调度:创建两个核心任务,分别负责串口控制电机和读取电机角度信息,同时支持Blinker APP蓝牙控制,操作便捷。
  • 自平衡算法:通过MPU6050采集姿态数据,结合轮速信息进行PID运算,动态调节两侧舵机角度和电机力矩,实现机器人稳定平衡。
  • 电机初始化优化:首次上电时运行motor.initFOC()函数,串口输出电机转向和偏差角度后填入参数,下次上电即可跳过自检,提升启动效率。
  • 无线控制:除了串口控制,还支持Blinker APP蓝牙连接,手机端即可调节机器人姿态、身高,操作直观易懂。

3. 后续软件迭代计划

目前代码已实现核心功能的稳定运行,后续将重点优化:

  • 适配ESP-IDF开发平台,开发离线语音控制功能;
  • 优化PID参数,提升机器人在复杂地形的平衡能力;
  • 完善机械结构与算法的适配性,增强抗干扰性。

四、项目现状与开源资源汇总

受疫情影响,V3.0版本的SMT主板暂未取回,目前使用的临时方案存在左轮电机控制效果欠佳的问题,待疫情好转后将及时更新V3.0版本程序与调试教程。

开源资源(全部免费获取)

  • 设计文件:PCB设计图、原理图、三维模型(STL格式);
  • 代码资源:VScode platform项目工程文件;
  • 教程视频:电路讲解、代码讲解、三维模型演示视频;
  • BOM清单:详细的元器件采购清单,直接对接供应商,采购无踩坑。

资源下载地址:
代码:https://download.ZEEKLOG.net/download/xiesibo2012/92528868
模型:https://download.ZEEKLOG.net/download/xiesibo2012/92528791
3d打印件:https://download.ZEEKLOG.net/download/xiesibo2012/92528866

五、总结:低成本入门轮腿机器人的绝佳选择

LeTian-robot2项目以ESP32-S3为核心,通过低成本元器件选型、开源设计降低了入门门槛,同时兼顾了功能的完整性与拓展性。无论是想学习机器人控制算法、PCB设计,还是想亲手打造一款实用的轮腿机器人,这个项目都值得一试。

后续随着V3.0版本的落地和跳跃功能、语音控制的迭代,机器人的实用性还将进一步提升。如果你也对轮腿机器人感兴趣,不妨下载开源资源动手尝试,也欢迎在项目评论区交流探讨,一起优化这款低成本ESP32轮腿机器人!

Read more

FPGA入门:CAN总线原理与Verilog代码详解

FPGA入门:CAN总线原理与Verilog代码详解

目录 一、CAN 总线核心原理 1. 物理层特性 2. 协议层核心概念 (1)位时序 (2)帧结构(标准数据帧) (3)关键机制 二、FPGA 实现 CAN 的核心模块 三、Verilog 代码实现(以 50MHz 时钟、1Mbps 波特率为例) 1. 全局参数定义 2. 位时序模块(CAN Bit Timing Generator) 3. CRC 计算模块(CAN CRC Generator) 4. 发送模块(CAN Transmitter) 5. 接收模块(CAN Receiver)

机器人全身控制浅谈:理解 WBC 的原理

机器人全身控制浅谈:理解 WBC 的原理

概念 WBC(Whole-Body Control,全身控制)是什么?机器人是由“各关节”组成的,其不是“各关节各玩各的”而是一个耦合的整体。在某个时刻可能要做很多事情,比如保持平衡(重心别出圈)、手/脚要动作到目标位置、躯干姿态不能乱、关节不能超限、脚下不能打滑。这些都是一系列任务的组合。 WBC的核心就是把这些任务(目标)和约束(物理/安全)写进一个小型优化问题,在每个控制周期(几百hz~1Khz)求解,得到**“当下这毫秒,各关节应该怎么动/用多大力”**。 一句话总结就是WBC就是用优化的方法求解出要给“关节多少力“”以便让机器的各个关节一起配合完成多个目标,且不违反物理与安全约束。 原理 动力学方程 要解释WBC的原理,那必须绕不开动力学方程,这里就先对动力学方程做个简单介绍。 M(q)v˙+h(q,v)

openclaw配置飞书(Feishu)机器人(2026.03.07)

openclaw配置飞书(Feishu)机器人(2026.03.07)

前提:你已经安装好openclaw,配置好了大模型。 可借鉴我另一篇博文:https://mp.ZEEKLOG.net/mp_blog/creation/editor/157513751 一、配置openclaw channel 打开终端,输入: openclaw config 开始安装,需要等一会,安装好需要你填飞书的App ID和App Secret,先放着,等执行下面的步骤 然 二、配置飞书机器人 , 获取App ID和App Secret 安装流程如下链接,太长了,不想编辑了,完成版本发布。 https://www.feishu.cn/content/article/7613711414611463386 1.配置事件长连接时,需要在openclaw上安装飞书SDK(如果步骤一没执行会长连接失败) 2.当然以上配还是有问题的,

Ψ0——人形全身VLA:先用800h人类自视角视频数据和30h的真实机器人交互数据预训练VLM,再后训练MM-DiT,最后用AMO做下肢RL跟踪

Ψ0——人形全身VLA:先用800h人类自视角视频数据和30h的真实机器人交互数据预训练VLM,再后训练MM-DiT,最后用AMO做下肢RL跟踪

前言 今26年3.11,一投资人微信上跟我说,“ 周老师好!最近在搞什么模型?今天USC大学发布的这个模型,请您评估看看?” 我当时回复她道,“这个我这个星期,抽时间解读一下,到时候再说一下我的看法哦” 对于本文要解读的Ψ0 1. 首先,作者在大规模第一视角人类视频(约800 小时的人类视频数据),和30 小时的真实世界机器人数据上对一个 VLM 主干进行自回归预训练,以获得具有良好泛化能力的视觉-动作表征 2. 随后,再在高质量的人形机器人数据上后训练一个基于流(flow-based)的动作专家,用于学习精确的机器人关节控制 个人认为,该工作在理念创新上 确实 挺不错的 1. 以规模不大的“人类第一视角数据和真实机器人交互数据”预训练vlm 再后训练、微调 避免一味 堆数据,毕竟 数据 很难是个头 2. 全身摇操系统 看起来 也组合的不错 更重要的是,虽然目前市面上loco-mani方向的工作已经不少了