在OrangePi-5 Plus/5 Ultra上实时运行yolo26进行无人机检测,fps超50!

在OrangePi-5 Plus/5 Ultra上实时运行yolo26进行无人机检测,fps超50!

在OrangePi-5 Plus/5 Ultra上使用VideoPipe与YOLO26n实现高性能无人机检测

视频效果展示

RK3588无人机检测

前言

随着低空经济的快速发展,无人机检测已成为安防监控、边境巡逻、关键区域保护等场景中的重要需求。OrangePi 5 Plus和OrangePi 5 Ultra作为瑞芯微RK3588平台的高性能开发板,凭借其强大的NPU算力,成为边缘端AI推理的理想选择。

本文将详细介绍如何基于VideoPipe框架,结合最新的YOLO26n模型,在这两款开发板上实现高效的无人机检测,并分享我们在预处理和模型量化方面的深度优化经验。

一、硬件平台与模型概述

1.1 硬件平台

  • OrangePi 5 Plus: 搭载瑞芯微RK3588处理器,8核CPU + Mali-G610 GPU + 6TOPS NPU
  • OrangePi 5 Ultra: 同样基于RK3588,NPU算力可达16TOPS(INT8)

这两款开发板都具备强劲的AI推理能力,非常适合部署目标检测模型。

在这里插入图片描述
📷 图1: OrangePi 5 Plus(上)与OrangePi 5 Ultra(下)尺寸对比,右侧为标准鼠标左侧为标准键盘

1.2 YOLO26n模型

YOLO26是YOLO系列的最新版本,相比前代YOLO11,在检测精度和推理速度上都有显著提升。YOLO26n是nano版本,专为资源受限的边缘设备设计:

  • 参数量: 约280万
  • 计算量: 约6.8G FLOPs
  • 输入分辨率: 640×352(非标准方形,而是更适合常用视频1080p、720p等的宽高比)

二、VideoPipe框架简介

VideoPipe是一个基于节点架构的视频分析流水线框架,专为嵌入式场景设计。其核心特点包括:

  1. 节点化架构: 每个处理步骤(解码、推理、跟踪、OSD等)都是独立的节点
  2. 硬件加速: 深度集成MPP(视频编解码)、RGA(2D图像处理)、RKNN(NPU推理)
  3. 低延迟: 流水线设计,最大化硬件利用率
  4. 易扩展: 方便添加新的节点类型和处理逻辑

典型流水线结构:

源节点 -> 预处理节点 -> 推理节点 -> OSD节点 -> 显示节点 

三、优化策略详解

3.1 输入分辨率优化:640×352

传统方案: 通常使用640×640或416×416等方形输入

优化方案: 使用640×352的宽高比输入

为什么这么做?

  1. 适配视频场景: 大多数监控视频为16:9宽高比输入可以减少无效像素的处理
  2. 降低计算量: 相比640×640,减少了约45%的像素数(229,120 vs 409,600)
  3. 保持宽特征: 352的高度足以捕捉大部分目标特征,而640的宽度可以覆盖更宽的视野

实测效果:

  • 推理速度提升约30%
  • 检测精度基本不变(因为无人机通常是细长目标,宽度信息未被牺牲)

3.2 预处理优化:放弃等比缩放,直接缩放

传统方案: 使用OpenCV进行等比缩放 + padding

// 传统方式(伪代码) cv::Mat resized;float scale =min(640.0

Read more

不再呆板!MiGPT GUI 让小爱音箱变身个性化 AI 助手,内网穿透更实用

不再呆板!MiGPT GUI 让小爱音箱变身个性化 AI 助手,内网穿透更实用

MiGPT GUI 是一款专为小爱音箱打造的图形化工具,核心功能是将小爱音箱接入 DeepSeek V3.2 等大模型,支持自定义人设、切换豆包 TTS 音色,同时兼容 Windows、Mac、Linux 多系统,零基础也能通过 Docker 一键部署,适配小爱音箱 Pro、mini 等多款设备,尤其适合想提升小爱音箱交互体验的普通用户,优点在于可视化操作、解决小米异地登录问题,还能低成本利用免费 tokens 体验 AI 功能。 使用 MiGPT GUI 时发现,虽然操作门槛低,但配置小米账号时要准确填写设备 ID(需和米家 APP 一致),AI 大模型 API 密钥和 TTS 参数填写错误会导致功能失效,且首次部署后建议先测试语音配置,避免后续使用中出现音色异常的情况,

B站PC端web自动开启字幕脚本(2026新版适配)

B站自动字幕用户脚本:快捷键开关 + 自动开启字幕(2026新版适配) 作者:Apixus 更新日期:2026年3月5日 项目地址:GitHub仓库 一、脚本介绍 你是否经常在B站看视频时反复手动开启字幕?是否希望切换视频时字幕能自动开启? 这个用户脚本就是为了解决这些问题而开发的。 B站自动字幕脚本 提供了以下功能: * 🎯 快捷键控制:按 C 键快速开启或关闭字幕 * 🔄 自动开启:切换分P、点击推荐视频时自动打开字幕 * 🆕  2026新版适配:专为B站最新版播放器优化 * ⚡ 性能优化:智能监听,告别卡顿轮询 * 🛡️ 防冲突:自动识别输入框,避免误触 二、适用页面 * 普通视频页:https://www.bilibili.com/video/* * 播放列表页:https://www.bilibili.com/list/* 支持普通视频页、番剧页、播放列表页等常见场景。 三、

Web 服务与 I/O 模型

一、Web 服务介绍 1.1.1 Apache prefork 模型(预派生模式) * 核心机制:主控制进程派生多个独立子进程,使用select模型,最大并发 1024;每个子进程单线程响应用户请求 * 资源特性:占用内存较多,但稳定性极高 * 配置特点:可设置进程数的最大值和最小值 * 适用场景:访问量中等的场景 * 优缺点 * ✅ 优点:极致稳定,故障隔离性好 * ❌ 缺点:每个请求对应一个进程,资源占用高,并发能力弱,不适合高并发场景 1.1.2 Apache worker 模型(多进程 + 多线程混合模式) * 核心机制:主进程启动多个子进程,每个子进程包含固定线程数;线程处理请求,线程不足时新建子进程补充 * 资源特性:相比 prefork 内存占用更少,支持更高并发

Qwen3-VL-8B Web聊天系统保姆级教程:本地/远程双模式快速上手

Qwen3-VL-8B Web聊天系统保姆级教程:本地/远程双模式快速上手 1. 这不是另一个“跑通就行”的Demo,而是一个开箱即用的AI聊天系统 你可能已经试过不少大模型Web界面——有的要改十几处配置,有的启动后连首页都打不开,还有的只支持纯文本,一上传图片就报错。这次不一样。 Qwen3-VL-8B Web聊天系统,从第一天设计起就瞄准一个目标:让普通开发者不用查文档、不碰核心代码、不反复重装依赖,5分钟内看到能对话、能传图、能记住上下文的完整界面。它不是一个前端加个API调用的简单组合,而是一个真正闭环的工程化部署方案:浏览器里点开就能聊,关机重启后服务自动恢复,局域网同事也能直接访问你的本地AI助手。 更关键的是,它原生支持视觉语言理解(VL),不只是“Qwen3-8B”,而是“Qwen3-VL-8B”——你能把商品截图、流程图、手写笔记甚至带公式的PDF页面拖进去,让它看图说话。这不是未来功能,是现在就能用的默认能力。 这篇文章不讲原理推导,不列参数表格,也不堆砌术语。我们只做一件事:带你从零开始,一次成功跑起来,然后立刻用上。 2.