「2025嵌赛」瑞芯微&飞凌嵌入式赛题全国一等奖|基于ELF 2开发板的多传感信息融合的多用途巡检机器人

「2025嵌赛」瑞芯微&飞凌嵌入式赛题全国一等奖|基于ELF 2开发板的多传感信息融合的多用途巡检机器人

全国大学生嵌入式芯片与系统设计竞赛以服务国家嵌入式芯片与相关应用产业的发展大局,加强全国高校学生在相关领域的创新设计与工程实践能力,深化产教融合,培养具有创新思维、团队合作精神、解决复杂工程问题能力等新工科要求的优秀人才为背景。

飞凌嵌入式作为本届大赛协办单位之一,联合瑞芯微在应用赛道中设立专项赛题,并采用基于瑞芯微RK3588芯片设计的ELF 2开发板作为参赛平台,该赛题吸引了超过500支参赛队伍报名,经过线上初审与分赛区复赛的严格选拔,最终64支队伍脱颖而出,成功晋级全国总决赛。备赛期间,飞凌嵌入式技术团队为参赛学生提供了全方位的技术支持与专业培训,助力他们在比赛中充分发挥实力、斩获佳绩。

其中,郑州轻工业大学“调试时长两月半队”团队凭借参赛项目“基于ELF 2开发板的多传感信息融合的多用途巡检机器人”,荣获全国一等奖。该团队由计算机科学与技术学院的李宗洋、靳家林、吴海源三位同学组成,并在于泽琦老师和王晓老师的指导下完成项目。接下来,让我们一起了解这一获奖项目的具体内容。

“调试时长两月半队”团队展示

“基于ELF 2开发板的多传感信息融合的多用途巡检机器人”项目介绍

该项目是基于ELF 2开发板设计并实现了一款多功能巡检机器人,旨在为中小型驿站仓库、写字楼等场所提供智能化、自动化的安防巡查服务。系统以ROS 2 Humble版本为核心控制平台,结合slam_toolbox和Navigation 2导航框架实现自主建图与路径规划功能,使机器人能够在复杂室内环境中完成高效巡逻任务。

机器人搭载激光雷达与IMU传感器,通过SLAM技术构建高精度地图,并利用AMCL算法实现定位与导航。在视觉识别方面,采用YOLOv8目标检测模型对环境中的包裹状态、门窗开合情况进行实时识别与分析,有效判断是否存在包裹破损或异常开启情况,提升安全预警能力。

此外,机器人集成MLX90640热成像模块,能够对环境中的热源进行非接触式温度监测,识别异常高温区域,及时发现潜在火灾隐患,实现多维度的安全检测功能。所有检测结果均可通过ROS 2的消息机制上传至远程监控终端,便于管理人员实时掌握现场状况。

整个系统具备良好的可扩展性与稳定性,支持多任务协同运行,并可根据实际应用场景灵活配置功能模块。项目实现了从感知、决策到执行的完整闭环控制流程,展示了机器人在智能安防领域的广泛应用前景,为推动智慧仓储与楼宇管理的自动化升级提供了切实可行的技术方案。

*免责声明:本文所有作品介绍均来自2025第八届全国大学生嵌入式芯片与系统设计竞赛应用赛道学生提交的参赛作品展示,由学生自行制作。飞凌嵌入式展示获奖作品内容仅为展示参赛者作品,为开发者带来更多创意启发,并已征得主办方及参赛团队同意。飞凌嵌入式不承担作品展示内容或视频字体的相关法律责任。

参赛平台介绍——基于RK3588设计的ELF 2开发板

本次全国大学生嵌入式芯片与系统设计竞赛,瑞芯微&飞凌嵌入式赛题选用ELF 2开发板作为参赛平台,这款开发板基于瑞芯微RK3588高性能处理器设计,拥有四核ARM Cortex-A76与四核ARM Cortex-A55的CPU架构,主频高达2.4GHz,内置6TOPS算力的NPU,这一设计让它能够轻松驾驭多种深度学习框架,高效处理各类复杂的AI任务。

在接口资源方面,ELF 2开发板提供了丰富的选项,包括多个USB、PCIe、UART等通信接口,以及HDMI、DP等音视频接口。此外,它还支持多种扩展模块,适配了显示屏、摄像头、光照传感器、运动传感器、语音控制等丰富的选配模块。而且在开发板上预留的40pin排针可兼容树莓派的各种模块,为您的嵌入式学习之旅提供了无限可能。

图片

图片

ELF 2开发板已经适配了Linux 5.10及Ubuntu 22.04操作系统,后续逐步实现对Android、OpenHarmony等系统的适配,旨在为在校学生、高校教师、专业工程师、兴趣达人提供丰富的学习与开发环境。

如此高性能的开发板能够支持多种AI应用场景。在图像识别方面,可以高效地完成人脸识别和物体检测等任务。并通过内置的NPU和优化的算法,实现语音识别和自然语言处理,此外还支持多种机器学习算法和深度学习模型。

ELF 2开发板附带了丰富的教学资料,系统而全面地介绍了AI开发的整个流程。资料中不仅模型种类丰富多样,而且对典型模型都进行了深入的剖析,详细阐述了模型的优化思路与方法,让AI项目能够真正地从理论走向实践。

Read more

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

Copilot 指令文件全解析:copilot-instructions.md vs AGENTS.md vs .instructions.md 作为常年和 VS Code 打交道的研发,最近在折腾 Copilot Agent 时,我发现很多同学和我一样,被 .github/copilot-instructions.md、AGENTS.md 和 .instructions.md 这三个文件绕晕了。 明明都是给 Copilot 写的 “指令”,为什么要分三个文件?它们的生效范围有啥区别?什么时候该用哪一个? 带着这些疑问,我翻遍了官方文档,又在自己的 AI Agent 项目里反复实测,终于把这三者的关系理得清清楚楚。这篇文章就用最直白的语言,结合实战配置,帮你彻底搞懂 Copilot 指令文件的使用逻辑。 一、先搞懂核心:

GitHub Copilot AI 编程超全使用教程,从入门到精通

GitHub Copilot AI 编程超全使用教程,从入门到精通

前言 作为 GitHub 推出的 AI 编程助手,GitHub Copilot 凭借强大的代码补全、自然语言交互、自动化开发等能力,成为了开发者提升编码效率的 “神器”。它能支持主流 IDE(VS Code、IntelliJ IDEA、Eclipse 等)、终端等多环境,还可自定义配置、切换 AI 模型,适配个人和团队的不同开发需求。本文结合 GitHub 官方文档和实际使用经验,用通俗易懂的方式讲解 Copilot 的完整使用方法,从环境搭建到高级技巧,再到故障排除,一站式搞定 Copilot AI 编程! 一、GitHub Copilot 核心能力一览 在开始使用前,先快速了解 Copilot 的核心功能,清楚它能帮我们解决哪些开发问题: 1. 智能代码补全:

【复现】基于动态反演和扩展状态观测器ESO的无人机鲁棒反馈线性化自适应姿态控制器(包括Simulink和m脚本)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭:行百里者,半于九十。 📋📋📋本文内容如下:🎁🎁🎁  ⛳️赠与读者 👨‍💻做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,然后还要有仰望星空的创新点和启发点。建议读者按目录次序逐一浏览,免得骤然跌入幽暗的迷宫找不到来时的路,它不足为你揭示全部问题的答案,但若能解答你胸中升起的一朵朵疑云,也未尝不会酿成晚霞斑斓的别一番景致,万一它给你带来了一场精神世界的苦雨,那就借机洗刷一下原来存放在那儿的“躺平”上的尘埃吧。      或许,雨过云收,神驰的天地更清朗.......🔎🔎🔎 💥第一部分——内容介绍 基于动态反演和扩展状态观测器(ESO)的无人机鲁棒反馈线性化自适应姿态控制器研究 摘要:本文聚焦于无人机姿态控制领域,提出一种鲁棒的反馈线性化控制器。该控制器旨在实现无人机滚转角、俯仰角和偏航角对给定轨迹的精确跟踪。通过动

智能摆放新方案:GOPLA框架在Stretch 3开源操作机器人上实现空间常识突破

智能摆放新方案:GOPLA框架在Stretch 3开源操作机器人上实现空间常识突破

你是否曾希望家里的机器人助手不仅能递水,还能在你做完饭后"顺手"把盘子放到碗架的正确位置?这看似简单的"顺手一放",对机器人而言却是一场巨大的智能挑战。 近日,慕尼黑工业大学与苏黎世联邦理工联合推出的GOPLA系统,在这一难题上取得了显著进展。这项前沿研究在Hello Robot Stretch 3移动操作机器人上完成验证,该具备"空间常识"的智能系统,在复杂摆放任务上的成功率比现有优秀方法高出约30%。 破解"摆放"难题:从语义理解到物理约束 机器人智能(具身智能)的重要目标之一是让机器能像人一样在物理世界中自主、合理地行动。而"物体放置"是检验其智能水平的关键环节。其核心挑战在于:如何让机器同时理解人类模糊的语义指令("放得顺手点")和精确的物理几何约束("不能碰到其他东西")? GOPLA的"