无人机飞行空域申请全流程指南

无人机飞行空域申请全流程指南

一、哪些情况需要申请空域?

必须申请空域的情况:

  • 管制空域内飞行(包括机场周边、军事区、120米以上空域等)
  • 微型/轻型无人机在适飞空域内超过真高120米飞行
  • 轻型无人机进行特殊操作(如中继飞行、载运危险品、飞越人群)
  • 小型及以上无人机(空机>4kg或最大起飞重量>7kg)在任何空域飞行

无需申请的情况:

  • 微型无人机在真高50米以下适飞空域内飞行
  • 轻型无人机在真高120米以下适飞空域内飞行

二、申请前必备准备

1️⃣ 实名登记(所有无人机必备)

  • 登录民用无人驾驶航空器综合管理平台(UOM)https://uom.caac.gov.cn或UOM APP)
  • 个人用户:完成实名认证(上传身份证),为≥250g的无人机登记,获取唯一编码和二维码
  • 企业用户:准备营业执照、法人身份证、运营合格证、无人机适航证

2️⃣ 人员资质要求

  • 轻型无人机:一般不需执照(特殊操作除外)
  • 小型及以上无人机:必须持有CAAC无人机驾驶员执照 
  • 商业飞行:需额外提供第三者责任险保单 

3️⃣ 准备申请材料

  • 个人:身份证、无人机实名登记凭证、飞行计划说明
  • 企业:营业执照、法人身份证、实名登记凭证、飞行任务方案、保险证明

三、空域申请详细步骤

Step 1:查询空域状态

  • 登录UOM APP,点击"办事"→"运行管理"→"空域信息查询"
  • 蓝色区域:适飞空域(120米以下可自由飞行)
  • 非蓝色区域:管制空域(必须申请)

Step 2:提交申请(管制空域)

  1. 在UOM平台点击"运行管理"→"飞行活动申请"→"一般飞行活动"→"新增"
  2. 填写申请信息:
  • 飞行任务概述(目的、时间、预计时长)
  • 操控模式(遥控/自主)
  • 精确框选空域范围(经纬度精确至小数点后6位)
  • 填写最大飞行高度(真高,单位:米)
  • 选择已登记的无人机和操作员

Step 3:等待审批

  • 常规申请:提前1-3天提交,审批时间1-5个工作日
  • 复杂区域(机场、军事区附近):提前5-7天提交
  • 紧急任务(救援等):可申请加急(30分钟前),1-2天获批
  • 审批结果:获得电子版批准文书即可飞行

Step 4:飞行前确认

  • 部分地区(如深圳、江门)需在地方监管平台二次报备 
  • 严格按批准的时间、范围、高度飞行,遵守电子围栏限制

Step 5:飞行后报告

  • 降落后1小时内,登录UOM点击"降落"提交结束报告

四、不同类型无人机申请差异

无人机类型

空机重量

最大起飞重量

适飞空域限制

空域申请要求

微型

≤0.25kg

≤0.25kg

真高≤50米

适飞区内无需申请

轻型

≤4kg

≤7kg

真高≤120米

适飞区内无需申请,超120米需申请

小型

>4kg

>7kg且≤150kg

真高≤120米

必须申请,需CAAC执照

中型/大型

>150kg

>150kg

视任务而定

必须申请,需专业资质

五、实用提示

  1. 提高审批成功率
  • 飞行高度规划在100米以下更易获批
  • 避开敏感区域(军事设施、政府机关、机场)
  • 提供详细的安全预案(含断链返航方案)
  1. 特殊情况处理
  • 需解除500米限高:先获取军区航管同意函→派出所申请→大疆解禁→证书导入
  • 跨区域作业:如去广东,需登录广东省低空飞行综合管理服务平台二次申请

六、总结

无人机飞行申请空域遵循"先登记、再查询、后申请"原则:

  • 适飞空域:登记即可飞,限高50-120米(视机型)
  • 管制空域:必须通过UOM平台申请,获批后方可飞

违规后果:未经批准飞行将被视为"黑飞",可能面临罚款(最高1万元)、设备没收等处罚

下一步:立即完成实名登记,养成飞行前查询空域的习惯,让每一次飞行都合法合规!

|(注:文档部分内容可能由 AI 生成)

Read more

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace

5060Ti双显卡+LLaMA-factory大模型微调环境搭建

5060Ti双显卡+LLaMA-factory大模型微调环境搭建

* 查看环境 * 确定安装版本 * 安装CUDA12.8 * 安装Anaconda * 安装Visual Studio C++桌面开发环境(编译llama.cpp需要) * 安装cmake(编译llama.cpp需要) * 安装llama.cpp(用于量化) * 安装huggingface-cli * 安装llama-factory * 安装PyTorch2.7.0 * 安装bitsandbytes * 安装flash-attention加速(减少内存的) * 安装unsloth加速(减少显存的) * 安装deepspeed加速(分布式训练) * 测试环境 * 准备数据集 * 修改配置以适配多显卡 * 训练 参考链接 查看环境 CPU:R7 9800X3D RAM:96GB(5600) GPU:5060Ti 16GB * 2 nvidia-smi 我的显卡是5060Ti,CUDA最高支持的版本为12.9,理论上有11.

在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南

在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南

目录 * 在昇腾NPU上跑Llama 2模型:一次完整的性能测试与实战通关指南 * 引言:从“为什么选择昇腾”开始 * 第一幕:环境搭建——好的开始是成功的一半 * 1.1 GitCode Notebook 创建“避坑指南” * 1.2 环境验证:“Hello, NPU!” * 第二幕:模型部署——从下载到运行的“荆棘之路” * 2.1 安装依赖与模型下载 * 2.2 核心部署代码与“坑”的化解 * 第三幕:性能测试——揭开昇腾NPU的真实面纱 * 3.1 严谨的性能测试脚本 * 3.2 测试结果与分析 * 第四幕:性能优化——让Llama跑得更快 * 4.1 使用昇腾原生大模型框架 * 4.