无人机 RGB+热红外融合检测建筑裂缝与渗漏,34 层高楼约 2 小时

无人机 RGB+热红外融合检测建筑裂缝与渗漏,34 层高楼约 2 小时

导读

住宅建筑的外立面检测传统上依赖人工——爬脚手架、挂绳索、拿检测仪逐面墙检查。一栋 34 层高楼,人工检测需要 2-3 天,覆盖率只有 40-60%,而且肉眼看不到墙体内部的渗漏。

深圳大学团队提出了一套无人机 RGB+热红外双模态检测方案:用 DJI Mavic 3 Thermal 无人机同时拍摄可见光和热红外图像,可见光用于检测裂缝,热红外用于检测渗漏(水分蒸发导致的温度异常)。在深圳三个住宅小区的实测中,裂缝检测 mIoU 达到 87.86%,渗漏检测 mIoU 达到 79.05%。一栋 34 层高楼的完整外立面检测约 2 小时完成,覆盖率  ≥95% 。


论文信息

  • 标题:UAV and Deep Learning for Automated Detection and Visualization of Façade Defects in Existing Residential Buildings
  • 作者:Yue Fan, Jinghua Mai, Fei Xue(通讯), Stephen Siu Yu Lau, San Jiang, Yiqi Tao(通讯), Xiaoxing Zhang, Wing Chi Tsang
  • 机构:深圳大学(亚热带建筑与城市科学国家重点实验室、广东省城市信息学重点实验室);香港大学建筑学院;香港都会大学;深圳物策地理信息技术有限公司

一、为什么需要两种模态?

建筑外立面有两类主要缺陷,单一模态各有盲区:

缺陷类型

可见光(RGB)

热红外

裂缝

✓ 几何特征清晰

✗ 空间分辨率不足(640×512)

渗漏

✗ 墙体内部水分肉眼不可见

✓ 水分蒸发造成温度异常

  • 可见光能看到裂缝的几何形状(宽度、走向、分支),但看不到墙体内部的渗漏——水分可能已经渗入保温层但表面无明显痕迹
  • 热红外能检测到渗漏区域的温度异常(蒸发冷却效应),但空间分辨率仅 640×512 像素,无法分辨细小裂缝

两种模态互补:RGB 负责裂缝,热红外负责渗漏。

图片

图片

图片来源于原论文

二、三阶段检测流水线

图片

图片来源于原论文

阶段一:墙体提取

用 SegFormer从无人机拍摄的图像中提取建筑墙体区域,排除天空、地面、植被等背景干扰。在 WHU 墙体数据集(900 张标注图像)上微调。

阶段二:裂缝检测(RGB)

对提取的墙体区域,用 K-Net + UPerNet做语义分割检测裂缝。采用滑动窗口策略——将高分辨率外立面图像切割为与训练分辨率匹配的小块,逐块检测后拼接。

训练数据:1,892 张公开裂缝数据集图像。

阶段三:渗漏检测(热红外)

同样用 K-Net + UPerNet对热红外图像做语义分割检测温度异常区域。标注数据经过可见光图像中的渗水痕迹/泛碱现象交叉验证。

训练数据:340 张自建热红外标注图像。

双模态配准与 3D 可视化

可见光和热红外图像通过单应性矩阵(手动选择 4 个以上匹配点)配准到统一坐标系。

论文的另一个重要环节是将检测结果映射到 3D 建筑模型上。整个数据采集分两步:第一步是粗略倾斜摄影(30m 高度拍摄,用于 SfM 三维重建获取建筑外轮廓和几何信息),第二步才是精细近距拍摄(5-25m,用于缺陷检测)。粗略阶段重建的 3D 模型作为载体,精细阶段检测到的缺陷通过坐标转换(WGS84 → UTM → ENU)映射到模型上,最终在 Grasshopper/Rhino 中实现参数化可视化——每处缺陷都有精确的三维坐标和面积。

三、硬件与飞行方案

无人机平台(规格来自 DJI 官方)

参数

规格

型号

DJI Mavic 3 Thermal(M3T)

广角相机

1/2" CMOS, 48MP, 24mm 等效焦距

长焦相机

1/2" CMOS, 12MP, 162mm 等效, 56× 混合变焦

热红外相机

非制冷 VOx 微测辐射热计, 640×512, NETD ≤50mK

续航

45 分钟

重量

920g

飞行参数建议

建筑类型

高度

拍摄距离

单栋耗时

低层(≤7 层)

~21m

5-10m

~45 分钟

中层(8-18 层)

15-20m

高层(≥19 层)

~100m

20-25m

~1.2-1.6 小时

关键约束:拍摄距离超过 30m后,裂缝检测和低温差渗漏检测性能明显下降。

四、实验结果:深圳三个住宅小区实测

训练配置

参数

规格

GPU

NVIDIA RTX 4090 (24GB)

训练迭代

墙体提取 40,000 / 裂缝 36,000 / 渗漏 9,500

学习率

0.0001, Poly 衰减

检测精度

任务

整体准确率

mIoU

mPrecision

mRecall

墙体提取

86.11%

64.04%

78.9%

76.33%

裂缝检测98.03%87.86%94.21%92.31%
渗漏检测98.41%79.05%87.54%86.44%

与传统方法对比

维度

传统人工检测

无人机 + 深度学习

单栋高楼耗时

2-3 天

~2 小时

覆盖率

40-60%

≥95%

裂缝宽度精度

±0.1mm

±1cm

人工参与度

90%

20%

无人机方案在效率、覆盖率和人工参与度上大幅领先,但裂缝宽度测量精度(±1cm)远低于传统裂缝计(±0.1mm)——适合大面积筛查,不替代精密测量。

实测案例

在深圳三个住宅小区部署:

小区

楼层

拍摄距离

图像对数

OCT 社区

7 层

5m

1,034

深南花园

34 层

22m

1,400

汇芳花园

33 层

25m

1,811

在深南花园识别出 4 处渗漏缺陷,面积分别为 0.16、0.25、0.47、0.92 m²,并在 3D 模型中定位了精确坐标。

图片

图片来源于原论文

五、总结与思考

这篇论文展示了一套完整的无人机双模态建筑外立面检测方案,从飞行规划到缺陷检测到 3D 可视化:

  • 双模态互补:RGB 检测裂缝(mIoU 87.86%),热红外检测渗漏(mIoU 79.05%)
  • 效率提升:单栋高楼从 2-3 天缩短到约 2 小时,覆盖率从 40-60% 提升到 ≥95%
  • 定位为筛查工具:论文明确将方案定位为"第一阶段筛查",识别重点区域后再做精密检测

值得注意的几点:

  1. 只覆盖两类缺陷:裂缝和渗漏。建筑外立面还有脱落、空鼓、保温层损坏等缺陷类型未涉及
  2. 热红外标注数据量有限:仅 340 张标注图像训练渗漏检测模型,泛化到更多建筑类型和场景需要更多数据验证
  3. 环境因素敏感:热红外检测受立面朝向、材质、天气影响大。论文实测在深圳(亚热带气候),在北方寒冷气候下的热对比度特性可能不同
  4. 双模态配准是手动的:需要人工选择 4 个以上匹配点做单应性配准,这限制了全自动化部署
  5. 精度 vs 效率的定位清晰:论文没有声称替代传统精密检测,而是定位为大面积筛查工具——这个定位务实且合理

Read more

VRM4U插件终极指南:在Unreal Engine 5中实现快速VRM模型导入

VRM4U插件终极指南:在Unreal Engine 5中实现快速VRM模型导入 【免费下载链接】VRM4URuntime VRM loader for UnrealEngine4 项目地址: https://gitcode.com/gh_mirrors/vr/VRM4U 还在为Unreal Engine 5中复杂的VRM模型导入流程而烦恼吗?今天我要向你介绍一款能够彻底改变你工作流程的终极工具——VRM4U插件!这款专为UE5设计的VRM文件导入解决方案,让你能够在极短时间内完成传统方法需要数小时才能完成的任务。无论你是VR内容开发者、游戏制作人还是数字艺术创作者,这篇文章都将为你提供完整的VRM4U插件使用指南。 常见问题:VRM模型导入的三大痛点 材质显示异常怎么办? 许多用户在导入VRM模型时遇到的最大问题就是材质显示不正常。传统的导入方式往往无法正确处理VRM特有的MToon材质系统,导致角色外观严重失真。 骨骼映射不兼容如何解决? VRM模型的骨骼结构与UE5标准骨骼系统存在差异,直接导入会导致动画无法正常工作,需要大量手动调整。 性能优化难题如何应对? 特别

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度 作为一名长期关注AI图像生成技术的开发者,我一直在寻找能够在质量和速度之间取得最佳平衡的解决方案。最近,Black Forest Labs开源的FLUX.1-dev模型引起了我的注意,特别是它声称能够在消费级硬件上运行,同时保持出色的图像质量。 今天我将通过实际测试,从图像细节、风格控制、生成速度等多个维度,对比FLUX.1-dev与大家熟悉的Stable Diffusion,看看这两个模型在实际使用中究竟表现如何。 1. 测试环境与方法 为了确保对比的公平性,我搭建了统一的测试环境。使用NVIDIA RTX 4090显卡,24GB显存,Intel i9-13900K处理器,64GB DDR5内存。操作系统为Ubuntu 22.04,所有测试都在相同的硬件和软件环境下进行。 测试方法包括定量评估和定性分析。定量方面主要测量生成速度、内存占用等硬性指标;定性方面则通过同一组提示词生成图像,从视觉质量、细节表现、风格一致性等角度进行对比。 我选择了50组涵盖不同场景的提示词,包括人物肖像、风景

FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例)

FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例) 📚 目录导航 文章目录 * FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例) * 📚 目录导航 * 概述 * 一、时钟约束基础概念 * 1.1 为什么需要时钟约束 * 1.1.1 指导综合优化 * 1.1.2 指导布局布线 * 1.1.3 进行静态时序分析 * 1.1.4 定义时钟域关系 * 1.2 时钟约束的分类 * 1.2.1 主时钟(Primary Clock) * 1.2.2 衍生时钟(

Neeshck-Z-lmage_LYX_v2从零开始:新手3步完成本地AI绘画工具搭建

Neeshck-Z-lmage_LYX_v2从零开始:新手3步完成本地AI绘画工具搭建 想自己动手搭建一个AI绘画工具,但又担心过程太复杂、电脑配置不够?今天,我就带你用Neeshck-Z-lmage_LYX_v2这个轻量级工具,三步搞定本地AI绘画的部署。整个过程就像搭积木一样简单,不需要联网,不需要高深的技术知识,更不需要昂贵的显卡。 这个工具是基于国产的Z-Image模型开发的,最大的特点就是“轻”和“快”。它把复杂的模型加载、参数调节都封装好了,你只需要在浏览器里点点鼠标、输入文字,就能看到AI生成的画作。无论是想画一个电影感十足的场景,还是生成一张精致的头像,它都能帮你快速实现。 下面,我们就开始这三步搭建之旅。 1. 环境准备:给你的电脑装上“画板” 在开始画画之前,我们得先把“画板”和“颜料”准备好。这一步主要是安装必要的软件环境,别担心,跟着做就行。 1.1 检查你的“画室”条件 首先,