面向无人机和智能手机的YOLOv8模型改进实战—棉叶病虫害多尺度目标检测

面向无人机和智能手机的YOLOv8模型改进实战—棉叶病虫害多尺度目标检测

一、引言

       YOLO(You Only Look Once)作为一种非常流行的目标检测算法,以其高效和准确性而闻名。YOLOv8作为这一系列算法较新颖的版本,相较于其前身在准确性、速度和模型大小方面都有所改进。博主将分享1篇发表在《Industrial Crops and Products》(中科院1区TOP)的“CPD-YOLO: A cross-platform detection method for cotton pests and diseases using UAV and smartphone imaging”,说明YOLOv8模型在跨平台(无人机+手机)场景下的棉花病虫害多尺度目标检测中的应用。主要改进点如下:

(1)特征融合改善:构建Bi-FPN +RepTransformer网络,实现多尺度特征的高效融合与推理加速。

(2)检测头增加:设计4头动态检测网络,赋予模型多维动态感知能力。

(3)损失函数优化:提出Inner-Shape IoU 边界框回归损失函数,提升定位精度,同时加速模型收敛。

论文原文:Redirecting

部分代码:https://github.com/xfl-521/GW_Y_YOLO

欢迎大家交流、引用和分享,博文如需转载请注明来源。

二、研究背景

      棉花是一种重要的经济作物,也是世界范围内纺织品的主要原料。棉花种植期间主要面临病虫害的侵袭,威胁棉花生长发育,引发产量骤减,严重削弱棉花的商品属性和市场竞争力。病虫害的侵袭会导致棉花叶片细胞结构中的色素、水分、营养元素等性质发生变化,这种变化会反映在棉叶图像信息中,如颜色和形态。近年来,随着深度学习的发展,以YOLO系列模型为代表的目标检测算法,因其检测精度高、泛化能力和鲁棒性强等优势在作物病虫害诊断中应用广泛。因此,研发基于YOLO的棉叶病虫害检测方法有望为棉农提供移动互联新兴形势下的田间棉叶病虫害精确检测服务,助力棉花产业高质量发展。

三、数据集

(一)数据获取与标注

      采用大疆Mavic3无人机和荣耀9手机采集了蚜虫、双斑萤叶甲和褐斑病侵袭下的棉叶图像数据,其中无人机图像分辨率为4000×3000像素,手机图像为3968×2976像素。随后对图像进行人工标注,生成包含病虫害位置及类别信息。

部分数据集:https://huggingface.co/datasets/Fukang2000/CPD_YOLOGWY/tree/main

参考链接:

X-AnyLabeling: https://blog.ZEEKLOG.net/weixin_45686120/article/details/144177943

AnyLabeling GitHub仓库: https://github.com/vietanhdev/anylabeling

AnyLabeling官方文档: https://anylabeling.nrl.ai

                                             (a)无人机图像

                                         (b)智能手机图像

图1 棉花病虫害图数据标注示例

四、模型改进

(1)RepViT-BiFPN:在RepViT block中采用了结构重参数化技术,以提高模型在训练期间的学习效率,并在推理期间减少计算和内存成本。采用跨块方式放置挤压-激励(SE)层,以最大化准确性收益,同时最小化延迟增加。

参考链接:https://blog.ZEEKLOG.net/qq_38668236/article/details/147259859

(2)DyHead:

参考链接:

https://blog.ZEEKLOG.net/zmyzcm/article/details/135185606?ops_request_misc=%257B%2522request%255Fid%2522%253A%25225c40eb4f2345606aaaa9f60c7a4176ef%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=5c40eb4f2345606aaaa9f60c7a4176ef&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_click~default-2-135185606-null-null.142^v102^pc_search_result_base5&utm_term=DyHead&spm=1018.2226.3001.4187

(3)Inner-IoU:对于高IoU的样本,使用较小的辅助边界框来计算损失可以加快收敛,而低IoU的样本则更适合使用较大尺寸的辅助边界框。基于此Inner-IoU应运而生,它通过辅助边界框来计算IoU损失。

参考链接:

https://blog.ZEEKLOG.net/athrunsunny/article/details/134458647?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522e90d1474bc3019db6c0d9db420e319ca%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=e90d1474bc3019db6c0d9db420e319ca&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_positive~default-1-134458647-null-null.142^v102^pc_search_result_base5&utm_term=inner%20iou&spm=1018.2226.3001.4187

(4)Shape-IoU:Shape-IoU通过引入形状和尺度感知因子,改进了传统IoU的计算方式,使其能够更准确反映边界框之间的真实相似度,提高小目标的检测精度,增强模型对不规则形状目标的适应性。

参考链接:

https://blog.ZEEKLOG.net/feng1790291543/article/details/147256042?ops_request_misc=&request_id=&biz_id=102&utm_term=Shape-Iou&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-147256042.142^v102^pc_search_result_base5&spm=1018.2226.3001.4187

                     

图2 改进的YOLOv8模型结构图

五、模型结果

      无人机图像中的棉叶病虫害目标较智能手机图像更小且数量更多,尽管典型YOLO系列模型计算复杂度较低,但其特征融合和多尺度目标检测能力较弱。CPD-YOLO在智能手机图像中表现优异,尤其在小尺度、目标数量较少且特征明显的场景下。CPD-YOLO通过增强特征融合和构建多尺度动态检测头网络,有效减少了无人机图像中的漏检和误检。

(一)消融实验结果

表1消融实验结果

表2 模型对比实验结果

图3 棉叶病虫害检测结果示例

六、结论

        研究提出了基于CPD-YOLO的棉花病虫害多尺度目标检测方法,适用于无人机和智能手机场景。消融实验与对比实验结果验证了改进策略的有效性,结果表明CPD-YOLO的漏检率最低,相较原始YOLOv8模型,其F1与mAP分别提升了7.44%和7.08%。

      考虑到DeepSeek、豆包、文心一言等国内人工智能大语言模型的崛起,未来研究可在进一步扩充实验数据的基础上接入大语言模型,辅助棉叶病虫害诊断和防治决策,并由植保专家对决策结果进行评估和校正,建立决策结果与专家修正的闭环优化机制,提升棉花病虫害诊断和防控的AI+精准指导。

论文原文:Redirecting

部分代码:https://github.com/xfl-521/GW_Y_YOLO

撰写博客不易,请大家关注、点赞,博文如需转载请注明来源,感谢你们的支持!

Read more

Android Jetpack与WebRTC实战:构建高效实时通信应用

快速体验 在开始今天关于 Android Jetpack与WebRTC实战:构建高效实时通信应用 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Android Jetpack与WebRTC实战:构建高效实时通信应用 移动端实时通信的痛点分析 实时通信在移动端开发中一直是个技术难点,主要面临三大挑战: 1. 网络环境不稳定:移动设备经常在Wi-Fi和蜂窝网络间切换,导致延迟波动和丢包率上升。实测数据显示,

【前端地图】 引入地图 SDK(高德/百度/腾讯/Google Maps)——CDN 引入、NPM 安装、初始化地图容器、设置中心点与缩放级别

【前端地图】 引入地图 SDK(高德/百度/腾讯/Google Maps)——CDN 引入、NPM 安装、初始化地图容器、设置中心点与缩放级别

第2节 | 引入地图 SDK(高德/百度/腾讯/Google Maps) 🧰 🎯 学习目标 老曹说:“别光看热闹,动手试试才是王道!今天教你如何‘召唤’地图神兽。” 1. 🚀 掌握多种方式引入地图 SDK(CDN、NPM、ES Module) 2. 🧱 学会初始化地图容器并设置基础参数 3. 🔧 灵活配置中心点与缩放级别 4. 🛠️ 实现多平台 SDK 的快速切换封装 🧠 引言:地图 SDK 是啥玩意儿? 简单来说,地图 SDK 就是一套封装好的 JavaScript 库,帮你搞定地图渲染、交互、数据加载等一系列复杂操作。你可以把它想象成一个“地图遥控器”,只要按下几个按钮,就能让地图乖乖听话。 老曹吐槽时间: “有些同学问我能不能自己写个地图引擎?当然可以啊,

Gemma-3-12B-IT WebUI效果呈现:强化学习对齐+RLHF训练流程解析

Gemma-3-12B-IT WebUI效果呈现:强化学习对齐+RLHF训练流程解析 1. 引言:从聊天界面到模型灵魂 当你打开Gemma-3-12B-IT的WebUI界面,输入一个问题,几秒钟后就能得到一个流畅、准确、甚至充满人情味的回答。这个看似简单的交互背后,隐藏着一套复杂而精密的训练体系——强化学习对齐(Reinforcement Learning Alignment)和RLHF(Reinforcement Learning from Human Feedback)训练流程。 你可能已经体验过Gemma-3-12B-IT的强大对话能力:它能理解你的意图,生成高质量的代码,解释复杂概念,甚至进行创意写作。但你是否想过,这个模型是如何学会“好好说话”的?它为什么不会像早期的聊天机器人那样胡言乱语,或者给出有害的建议? 今天,我们就来深入解析Gemma-3-12B-IT背后的训练秘密。这不是一篇枯燥的技术论文,而是一次带你走进大模型“训练营”的旅程。我们会用最直白的方式,解释强化学习对齐和RLHF到底是什么,它们如何让一个“原始”的语言模型变成现在这个聪明、有用、安全的对话

【前端高级特效】使用 CSS 实现毛玻璃模糊背景效果(含完整源码讲解)

【前端高级特效】使用 CSS 实现毛玻璃模糊背景效果(含完整源码讲解)

🌈 一、前言 在现代网页设计中,“毛玻璃(Frosted Glass)”效果几乎是高端 UI 的标配。 无论是登录弹窗、信息卡片、还是仪表盘背景,它都能带来优雅的层次感与视觉柔化效果。 本篇文章将通过 纯 CSS 实现毛玻璃模糊背景特效,无需任何 JavaScript,也不依赖额外库。 代码短小、兼容性强、效果高级,非常适合前端开发者收藏! 🖼️ 二、效果预览 最终效果如下图所示(可自行运行查看动态效果): 背景图片清晰,而中间的内容区域呈现半透明模糊的“玻璃”质感,文字浮在上方清晰可见。 🧩 三、完整源码(可直接复制运行) 以下是完整 HTML + CSS 源码,你可以直接复制运行(放在同目录的 image/4.jpg 即可)。 <!DOCTYPE html>