【数据集+完整源码】【YOLO】无人机数据集,目标检测无人机检测数据集 7261 张,YOLO无人机识别系统实战训练教程,yolo无人机检测。

【数据集+完整源码】【YOLO】无人机数据集,目标检测无人机检测数据集 7261 张,YOLO无人机识别系统实战训练教程,yolo无人机检测。

文章前瞻:优质数据集与检测系统精选

点击链接:更多数据集与系统目录清单

数据集与检测系统数据集与检测系统
基于深度学习的道路积水检测系统基于深度学习的道路垃圾检测系统
基于深度学习的道路裂缝检测系统基于深度学习的道路交通事故检测系统
基于深度学习的道路病害检测系统基于深度学习的道路积雪结冰检测系统
基于深度学习的汽车车牌检测系统基于深度学习的井盖丢失破损检测系统
基于深度学习的行人车辆检测系统基于深度学习的航拍行人检测系统
基于深度学习的车辆分类检测系统基于深度学习的电动车头盔佩戴检测系统
基于深度学习的交通信号灯检测系统基于深度学习的共享单车违停检测系统
基于深度学习的摆摊占道经营检测系统基于深度学习的人员游泳溺水检测系统
基于深度学习的航拍水面垃圾检测系统基于深度学习的水面垃圾检测系统
基于深度学习的水面船舶分类检测系统基于深度学习的海洋垃圾检测系统
基于深度学习的救生衣穿戴检测系统基于深度学习的海洋生物检测系统
基于深度学习的人员吸烟检测系统基于深度学习的口罩佩戴检测系统
基于深度学习的烟雾和火灾检测系统基于深度学习的人员睡岗玩手机检测系统
基于深度学习的人员摔倒检测系统基于深度学习的人员姿势检测系统(站坐躺摔倒)
基于深度学习的工地安全穿戴检测系统基于深度学习的安全帽检测系统
基于深度学习的反光背心穿戴检测系统基于深度学习的吸烟玩手机行为检测系统
基于深度学习的工地挖掘机检测系统基于深度学习的工地工程车检测系统
基于深度学习的人体手势检测系统基于深度学习的消防灭火器检测系统
基于深度学习的人员高空作业检测系统基于深度学习的水果分类检测系统
基于深度学习的农作物病害检测系统基于深度学习的水稻病害检测系统
基于深度学习的害虫检测系统基于深度学习的蓝莓成熟度检测系统
基于深度学习的草莓成熟度检测系统基于深度学习的食品分类检测系统
基于深度学习的光伏板缺陷检测系统基于深度学习的航拍光伏板检测系统
基于深度学习的建筑垃圾废料检测系统基于深度学习的可回收/不可回收垃圾检测系统
基于深度学习的垃圾分类检测系统基于深度学习的猪只行为动作检测系统
基于深度学习的动物分类检测系统基于深度学习的明厨亮灶鼠患检测系统
基于深度学习的猫狗分类检测系统基于深度学习的服饰分类检测系统
基于深度学习的电动车进电梯检测系统基于深度学习的无人机设备检测系统
基于深度学习的树木倒塌检测系统基于深度学习的电线杆杂物检测系统
基于深度学习的航拍树木检测系统基于深度学习的学生课堂行为检测系统
基于深度学习的家具分类检测系统基于深度学习的武器刀具检测系统

一、数据集介绍

【数据集】无人机检测数据集 7261 张,目标检测,包含YOLO/VOC格式标注

数据集中包含 1 种分类,具体分类为:names: ['drone'],为无人机。

数据集图片来自国内外网站、网络爬虫、视频抽帧等;

可用于园区,天空等禁飞区进行无人机设备识别

检测场景为园区、工厂、机场等禁飞区,可以应用于空中秩序管理,信息安全保密领域等工作

文章底部名片或主页私信获取数据集~ 

  ​​

  ​​​​​

1、数据概述

无人机设备检测的重要性

 无人机技术的飞速发展使其应用场景从传统航拍扩展至农业监测、灾害救援、物流运输、环境监测等关键领域。据统计,全球商用无人机年销量持续增长,预计到2025年市场规模将突破5亿美元。这一趋势对无人机设备的检测能力提出更高要求:需在复杂环境下实现实时、精准的目标识别,以支撑无人机自主导航、避障、任务执行等核心功能。例如,在农业领域,无人机需检测作物病虫害;在灾害救援中,需快速定位受困人员;在物流运输中,需识别货物位置与状态。这些场景均依赖高效的目标检测算法。

基于YOLO的无人机设备检测算法

  1. 速度与精度平衡:YOLO通过单次前向传播完成目标定位与分类,避免了传统两阶段算法(如Faster R-CNN)的冗余计算。例如,YOLOv4在COCO数据集上达到43.5% AP(平均精度),同时保持65 FPS的推理速度;YOLOv8进一步优化参数量,在嵌入式设备上实现实时检测。
  2. 多尺度特征融合:针对无人机视角下目标尺度差异大的问题,YOLO系列引入FPN(特征金字塔网络)和PANet(路径聚合网络),通过多尺度特征融合提升小目标检测能力。例如,FBRT-YOLO(AAAI 2025)通过轻量化设计,在航拍数据集上实现92.3% mAP(平均精度均值),同时满足嵌入式设备的实时性需求。
  3. 模型轻量化与部署优化:为适应无人机有限的计算资源,研究者提出多种轻量化策略。例如,YOLO-Drone通过引入深度可分离卷积和通道剪枝,将模型参数量压缩至13.5M,在NVIDIA Jetson TX2上达到22 FPS;VRF-DETR(2025)则通过自适应接收场选择机制,在保持高精度的同时降低计算复杂度。

该数据集含有 7261 张图片,包含Pascal VOC XML格式和YOLO TXT格式,用于训练和测试园区、工厂、机场等禁飞区进行无人机设备检测。图片格式为jpg格式,标注格式分别为:

YOLO:txt

VOC:xml

数据集均为手工标注,保证标注精确度。

2、数据集文件结构

drone/

——test/

————Annotations/

————images/

————labels/

——train/

————Annotations/

————images/

————labels/

——valid/

————Annotations/

————images/

————labels/

——data.yaml
  • 该数据集已划分训练集样本,分别是:test目录(测试集)、train目录(训练集)、valid目录(验证集);
  • Annotations文件夹为Pascal VOC格式的XML文件 ;
  • images文件夹为jpg格式的数据样本;
  • labels文件夹是YOLO格式的TXT文件;
  • data.yaml是数据集配置文件,包含无人机设备检测的目标分类和加载路径。

​​​​​​

​​​​​​  

 ​​​

 

 ​​​   

 ​​​

​​Annotations目录下的xml文件内容如下:

<annotation> <folder></folder> <filename>1536_jpg.rf.3ef7ae8ebe34a87c77ebbbeaf3747c85.jpg</filename> <path>1536_jpg.rf.3ef7ae8ebe34a87c77ebbbeaf3747c85.jpg</path> <source> <database>drone</database> </source> <size> <width>640</width> <height>640</height> <depth>3</depth> </size> <segmented>0</segmented> <object> <name>drone</name> <pose>Unspecified</pose> <truncated>0</truncated> <difficult>0</difficult> <occluded>0</occluded> <bndbox> <xmin>238</xmin> <xmax>308</xmax> <ymin>320</ymin> <ymax>382</ymax> </bndbox> </object> </annotation>

3、数据集适用范围 

  • 目标检测场景,监控摄像头识别
  • yolo训练模型或其他模型
  • 园区、工厂、机场等禁飞区
  • 可以用于空中秩序管理,信息安全保密领域等工作等。

4、数据集标注结果 

​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​ 

 ​​​ ​  ​​​​​​ ​​​​​​​​​​​​​​​​​​​​​ ​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​ 

 ​​​ ​  ​​​​

​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​ 

 ​​​ ​  ​​​​ ​​​​​​​ ​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​ ​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​ 

 ​​​ ​  ​​​​​​​​​​​​​​​​​ ​​​​​​​​​​​​​​​​​​​  ​​​​​​​​​​​​​​​​​​​​​​​​​ ​​​​​​​​​​​​​​ ​​​​​​​​​​​​​​​​​​​​​​  ​​​​​

4.1、数据集内容 

  1. 多角度场景:监控摄像头视角;
  2. 标注内容:1个分类,['drone'];
  3. 图片总量:7261 张图片数据;
  4. 标注类型:含有Pascal VOC XML格式和yolo TXT格式;

5、训练过程

5.1、导入训练数据

下载YOLOv8项目压缩包,解压在任意本地workspace文件夹中。

下载YOLOv8预训练模型,导入到ultralytics-main项目根目录下。

​​​​​

ultralytics-main项目根目录下,创建data文件夹,并在data文件夹下创建子文件夹:Annotations、images、imageSets、labels,其中,将pascal VOC格式的XML文件手动导入到Annotations文件夹中,将JPG格式的图像数据导入到images文件夹中,imageSets和labels两个文件夹不导入数据。

data目录结构如下:

data/

——Annotations/   //存放xml文件

——images/          //存放jpg图像

——imageSets/

——labels/

整体项目结构如下所示:

​​​​​​​​​

5.2、数据分割

首先在ultralytics-main目录下创建一个split_train_val.py文件,运行文件之后会在imageSets文件夹下将数据集划分为训练集train.txt、验证集val.txt、测试集test.txt,里面存放的就是用于训练、验证、测试的图片名称。

import os import random trainval_percent = 0.9 train_percent = 0.9 xmlfilepath = 'data/Annotations' txtsavepath = 'data/ImageSets' total_xml = os.listdir(xmlfilepath) num = len(total_xml) list = range(num) tv = int(num * trainval_percent) tr = int(tv * train_percent) trainval = random.sample(list, tv) train = random.sample(trainval, tr) ftrainval = open('data/ImageSets/trainval.txt', 'w') ftest = open('data/ImageSets/test.txt', 'w') ftrain = open('data/ImageSets/train.txt', 'w') fval = open('data/ImageSets/val.txt', 'w') for i in list: name = total_xml[i][:-4] + '\n' if i in trainval: ftrainval.write(name) if i in train: ftrain.write(name) else: fval.write(name) else: ftest.write(name) ftrainval.close() ftrain.close() fval.close() ftest.close()

5.3、数据集格式化处理

在ultralytics-main目录下创建一个voc_label.py文件,用于处理图像标注数据,将其从XML格式(通常用于Pascal VOC数据集)转换为YOLO格式。

convert_annotation函数

  • 这个函数读取一个图像的XML标注文件,将其转换为YOLO格式的文本文件。
  • 它打开XML文件,解析树结构,提取图像的宽度和高度。
  • 然后,它遍历每个目标对象(object),检查其类别是否在classes列表中,并忽略标注为困难(difficult)的对象。
  • 对于每个有效的对象,它提取边界框坐标,进行必要的越界修正,然后调用convert函数将坐标转换为YOLO格式。
  • 最后,它将类别ID和归一化后的边界框坐标写入一个新的文本文件。
import xml.etree.ElementTree as ET import os from os import getcwd sets = ['train', 'val', 'test'] classes = ['drone'] # 根据标签名称填写类别 abs_path = os.getcwd() print(abs_path) def convert(size, box): dw = 1. / (size[0]) dh = 1. / (size[1]) x = (box[0] + box[1]) / 2.0 - 1 y = (box[2] + box[3]) / 2.0 - 1 w = box[1] - box[0] h = box[3] - box[2] x = x * dw w = w * dw y = y * dh h = h * dh return x, y, w, h def convert_annotation(image_id): in_file = open('data/Annotations/%s.xml' % (image_id), encoding='UTF-8') out_file = open('data/labels/%s.txt' % (image_id), 'w') tree = ET.parse(in_file) root = tree.getroot() size = root.find('size') w = int(size.find('width').text) h = int(size.find('height').text) for obj in root.iter('object'): difficult = obj.find('difficult').text cls = obj.find('name').text if cls not in classes or int(difficult) == 1: continue cls_id = classes.index(cls) xmlbox = obj.find('bndbox') b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text)) b1, b2, b3, b4 = b # 标注越界修正 if b2 > w: b2 = w if b4 > h: b4 = h b = (b1, b2, b3, b4) bb = convert((w, h), b) out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n') wd = getcwd() for image_set in sets: if not os.path.exists('data/labels/'): os.makedirs('data/labels/') image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split() list_file = open('data/%s.txt' % (image_set), 'w') for image_id in image_ids: list_file.write(abs_path + '/data/images/%s.jpg\n' % (image_id)) convert_annotation(image_id) list_file.close()

5.4、修改数据集配置文件

在ultralytics-main目录下创建一个wheat.yaml文件

train: data/train.txt val: data/val.txt test: data/test.txt nc: 1 names: ['drone']

5.5、执行命令

执行train.py

model = YOLO('yolov8s.pt') results = model.train(data='wheat.yaml', epochs=200, imgsz=640, batch=16, workers=0, device=0)

也可以在终端执行下述命令:

yolo train data=wheat.yaml model=yolov8s.pt epochs=200 imgsz=640 batch=16 workers=0 device=0

5.6、模型预测 

你可以选择新建predict.py预测脚本文件,输入视频流或者图像进行预测。

代码如下:

import cv2 from ultralytics import YOLO # Load the YOLOv8 model model = YOLO("./best.pt") # 自定义预测模型加载路径 # Open the video file video_path = "./demo.mp4" # 自定义预测视频路径 cap = cv2.VideoCapture(video_path) # Get the video properties frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) fps = cap.get(cv2.CAP_PROP_FPS) # Define the codec and create VideoWriter object fourcc = cv2.VideoWriter_fourcc(*'mp4v') # Be sure to use lower case out = cv2.VideoWriter('./outputs.mp4', fourcc, fps, (frame_width, frame_height)) # 自定义输出视频路径 # Loop through the video frames while cap.isOpened(): # Read a frame from the video success, frame = cap.read() if success: # Run YOLOv8 inference on the frame # results = model(frame) results = model.predict(source=frame, save=True, imgsz=640, conf=0.5) results[0].names[0] = "道路积水" # Visualize the results on the frame annotated_frame = results[0].plot() # Write the annotated frame to the output file out.write(annotated_frame) # Display the annotated frame (optional) cv2.imshow("YOLOv8 Inference", annotated_frame) # Break the loop if 'q' is pressed if cv2.waitKey(1) & 0xFF == ord("q"): break else: # Break the loop if the end of the video is reached break # Release the video capture and writer objects cap.release() out.release() cv2.destroyAllWindows()

也可以直接在命令行窗口或者Annoconda终端输入以下命令进行模型预测:

yolo predict model="best.pt" source='demo.jpg'

6、获取数据集 

文章底部名片或主页私信获取数据集~

二、基于QT的目标检测可视化界面

1、环境配置

# 安装torch环境 pip install torch -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装PySide6依赖项 pip install PySide6 -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装opencv-python依赖项 pip install opencv-python -i https://pypi.tuna.tsinghua.edu.cn/simple

2、使用说明

​​​​​​

界面功能介绍:

  • 原视频/图片区:上半部分左边区域为原视频/图片展示区;
  • 检测区:上半部分右边区域为检测结果输出展示区
  • 文本框:打印输出操作日志,其中告警以json格式输出,包含标签框的坐标,标签名称等
  • 加载模型:下拉框绑定本地文件路径,按钮加载路径下的模型文件;
  • 置信度阈值自定义检测区的置信度阈值,可以通过滑动条的方式设置
  • 文件上传:选择目标文件,包含JPG格式和MP4格式
  • 开始检测:执行检测程序;
  • 停止:终止检测程序;

 3、预测效果展示

3.1、图片检测

​​​​​​

切换置信度再次执行:

​​​​​​

上图左下区域可以看到json格式的告警信息,用于反馈实际作业中的管理系统,为管理员提供道路养护决策 。

3.2、视频检测 

​​​​​​

3.3、日志文本框

​​​​​​​​​

4、前端代码 

class MyWindow(QtWidgets.QMainWindow): def __init__(self): super().__init__() self.init_gui() self.model = None self.timer = QtCore.QTimer() self.timer1 = QtCore.QTimer() self.cap = None self.video = None self.file_path = None self.base_name = None self.timer1.timeout.connect(self.video_show) def init_gui(self): self.folder_path = "model_file" # 自定义修改:设置文件夹路径 self.setFixedSize(1300, 650) self.setWindowTitle('目标检测') # 自定义修改:设置窗口名称 self.setWindowIcon(QIcon("111.jpg")) # 自定义修改:设置窗口图标 central_widget = QtWidgets.QWidget(self) self.setCentralWidget(central_widget) main_layout = QtWidgets.QVBoxLayout(central_widget) # 界面上半部分: 视频框 topLayout = QtWidgets.QHBoxLayout() self.oriVideoLabel = QtWidgets.QLabel(self) # 界面下半部分: 输出框 和 按钮 groupBox = QtWidgets.QGroupBox(self) groupBox.setStyleSheet('QGroupBox {border: 0px solid #D7E2F9;}') bottomLayout = QtWidgets.QHBoxLayout(groupBox) main_layout.addWidget(groupBox) btnLayout = QtWidgets.QHBoxLayout() btn1Layout = QtWidgets.QVBoxLayout() btn2Layout = QtWidgets.QVBoxLayout() btn3Layout = QtWidgets.QVBoxLayout() # 创建日志打印文本框 self.outputField = QtWidgets.QTextBrowser() self.outputField.setFixedSize(530, 180) self.outputField.setStyleSheet('font-size: 13px; font-family: "Microsoft YaHei"; background-color: #f0f0f0; border: 2px solid #ccc; border-radius: 10px;') self.detectlabel = QtWidgets.QLabel(self) self.oriVideoLabel.setFixedSize(530, 400) self.detectlabel.setFixedSize(530, 400) self.oriVideoLabel.setStyleSheet('border: 2px solid #ccc; border-radius: 10px; margin-top:75px;') self.detectlabel.setStyleSheet('border: 2px solid #ccc; border-radius: 10px; margin-top: 75px;') topLayout.addWidget(self.oriVideoLabel) topLayout.addWidget(self.detectlabel) main_layout.addLayout(topLayout)

5、代码获取

YOLO可视化界面

 更多数据集请查看

以上内容均为原创,搬运请私信。

Read more

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招 目标读者:希望在 VSCode/Zed 编辑器中直接复用 Claude Code 强大本地能力的开发者、DevOps 工程师、AI 工具流搭建者。 核心价值:通过自动化映射机制,打破 Claude Code CLI 与编辑器 Copilot 之间的"生殖隔离",实现一套 Skills/Agents 双端复用。 阅读时间:8 分钟 引言 你是否遇到过这种割裂的体验:在终端里,Claude Code 配置了强大的 tech-blog 技能,能一键生成高质量博客;配置了 code-review

深度解析 GitHub Copilot Agent Skills:如何打造可跨项目的 AI 专属“工具箱”

前言 随着 GitHub Copilot 从单纯的“代码补全”工具向 Copilot Agent(AI 代理) 进化,开发者们迎来了更高的定制化需求。我们不仅希望 AI 能写代码,更希望它能理解团队的特殊规范、掌握内部工具的使用方法,甚至在不同的项目中复用这些经验。 Agent Skills(代理技能) 正是解决这一痛点的核心机制。本文将深入解析 Copilot Skills 的工作原理,并分享如何通过软链接(Symbolic Link)与自动化工作流,构建一套高效的个人及团队知识库。 一、 什么是 Agent Skills? 如果说 Copilot 是一个通用的“AI 程序员”,那么 Skill(技能) 就是你为它配备的专用工具箱。 它不仅仅是一段简单的提示词(Prompt),而是一个包含元数据、指令和执行资源的标准文件夹结构。当

如何用ChatGPT降低毕业论文的AIGC重复率?(最新版详细攻略)

毕业季又到了,论文人的生存法则:“降重、降重、再降重!” 📚 尤其是今年,AIGC检测全面升级,以前的小技巧不太好用了,必须用更细致的方法应对。 这篇文章,一步步带你搞定AIGC率,让论文自然过检。 记得点赞➕收藏,不然到时候又得哭着翻笔记了😭。 一、为什么今年降AIGC变得这么难? 去年,用ChatGPT简单润色一下,AIGC率能从64.9%降到17.2%,谁用谁知道!👍 但,今年不一样了。 👉 2025年2月13日起,知网、维普、万方等系统,全面升级了AIGC检测。 👉 老方法直接被秒破,一测就爆表100%,而且检测报告显示:全文都疑似AI生成! 有没有很恐怖?就像你问老师考试重点,他告诉你:整本书都是!😱 所以,降AIGC不再是选修,是必修! (🔎 想提前规划论文选题?推荐参考👉 https://zhuanlan.zhihu.com/p/26493133188)

在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI

在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI

📖 前言 随着 NVIDIA Blackwell 架构的问世,DGX Spark (Personal AI Supercomputer) 将桌面级 AI 算力推向了新的巅峰。这台怪兽级设备搭载了 GB200/GB10 级别的 GPU 和 NVIDIA Grace CPU (ARM64),并运行在最新的 CUDA 13 环境下。 然而,“最强硬件"往往伴随着"最难环境”。由于 Grace CPU 采用 ARM (aarch64) 架构,且 CUDA 13 过于前沿,传统的 PyTorch 安装方法极易失败。 本文将手把手教你如何在这台超级计算机上部署 Stable Diffusion