无人机航测内业处理(iTwin Capture Modeler)

无人机航测内业处理(iTwin Capture Modeler)

iTwin Capture Modeler 内业处理

1、概述

本文以iTwin Capture Modeler(旧名称为Context Capture或Smart3D)软件为例介绍航测建模、土方算量、三维模型在线发布分享等内业处理。
本机所使用笔记本电脑主要配置:
CPU:intel Core Ultra 9 275HX
显卡:NVIDIA GeForce RTX 5070 Ti Laptop GPU 12GB
内存:32GB
注意:内存大小决定是否可以成功建模,内存不足建模失败(不会提示失败原因),推荐16GB以上;硬盘剩余容量建议为建模图片大小的2~3倍,否则会因为容量不足建模失败。

2、内业数据处理

2.1新建工程

打开两个软件,第一个为引擎,建模必须打开,第二个为主程序,第三个为模型浏览查看程序

在这里插入图片描述

开始计算空三或者建模时,主程序进度条卡在某一数值时,检查引擎界面是否有任务在执行,若无可按回车键解决,或者重新打开引擎

在这里插入图片描述


新建工程,保存路径不能有中文

在这里插入图片描述

2.2新建区块

新建区块(也可使用Metashape计算好的空三导入,Metashape空三计算速度更快,但建模质量较低,只生产正射影像可使用Metashape)

在这里插入图片描述

2.3导入影像

导入影像,可选择图片或者文件夹

在这里插入图片描述

2.4第一次空三

提交第一次空三计算,无需设置参数,第一次空三目的是为了对齐影像,建立连接点

在这里插入图片描述


在这里插入图片描述


空三完成后查看空三质量报告,主要看位置不确定性数值,越小越好,看自己需求需要几公分的

在这里插入图片描述


在这里插入图片描述

2.5刺点

点开测量,选择导入自定义文本格式,或者也可以手动添加坐标点

在这里插入图片描述


选择像控点文件,一般为手簿导出的dat格式文件或者txt等

在这里插入图片描述


根据自己坐标文件的格式内容,选择是否忽略头行等,大多数坐标文件分隔符为英文逗号",",根据自己的文件内容格式选择

在这里插入图片描述


本工程采用的是北京54坐标系,1.5°分带,中央子午线为109.5°,需要自定义坐标系

在这里插入图片描述


自定义坐标系,点击编辑,选择坐标系prj文件

在这里插入图片描述

关于如何自定义参考坐标系文件:本工程坐标系中央子午线为109.5°,可以在空间参考系统数据库中找到与本项目中央子午线最接近的坐标系,右键导出,然后在记事本中打开,将其中的中央子午线修改为109.5°即可

在这里插入图片描述


设置点名及xyz,若导入后在三维视图里面没有显示像控点位置则可能为xy坐标搞反了,重新导入像控点文件即可

在这里插入图片描述


刺点:刺点是为了约束平面和高程位置与提高精度,本工程采用当地理论最低潮面为高程0m点,属于地方高程系统,必须刺点;
刺点优先选择标记清晰,位于图片中央的点

在这里插入图片描述

2.6第二次空三

刺点完成后,再次提交空三运算,空三参数默认即可
空三完成后查看质量报告,重投影误差控制在1个像素内,若该点误差过大可能为刺点出现问题,或者也可以删除该点

在这里插入图片描述

2.7三维重建

选择新建重建框架-三维重建

在这里插入图片描述


空间框架中选择要建模的范围,先选择坐标系,如果建模范围为规则矩形可选择框否则使用新建多边形;有具体的范围也可以导入kml文件;切块大小根据自己电脑内存的大小选择,确保内存使用量不大于本机内存的80%

在这里插入图片描述


选择生产OSGB文件

在这里插入图片描述


坐标系选择自己所需坐标系

在这里插入图片描述


等待生产完成,得到一个xml文件和Date文件夹

在这里插入图片描述


生产完成后删除过程文件,释放磁盘空间

在这里插入图片描述


OSGB模型可使用倾斜伴侣查看http://www.osgblab.com/

3、建模精度检查

模型精度检查可采用倾斜伴侣检查,
选择精度检查,浏览控制点文件,选中控制点,在模型上点击标记,最终得到模型精度

在这里插入图片描述

4、提取高程点

4.1Cass中加载模型

选择3D图标,找到模型所在路径,选择后缀为XML的文件,双击打开

在这里插入图片描述

4.2提取高程点

使用闭合范围提取高程点,先绘制要提取高程点的范围线(使用多段线绘制),采点间距按需求选择(本文为10m)

在这里插入图片描述


在这里插入图片描述

4.3土方算量

利用Cass工程应用计算土方

5、模型分享

倾斜摄影模型在线查看分享可使用中交项目管理系统-CBIM协同实现,可创建场景,叠加卫星影像、BIM模型等信息

在这里插入图片描述


在这里插入图片描述

也可通过四维轻云、BIMFACE等在线网页分享查看模型

Read more

FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧)

FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧) 📚 目录导航 文章目录 * FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧) * 📚 目录导航 * 概述 * 一、HDMI基础概念 * 1.1 HDMI接口介绍 * 1.1.1 HDMI接口历史与发展 * 1.1.2 HDMI接口引脚定义 * 1.1.3 HDMI版本对比 * 1.2 HDMI版本演进 * 1.2.1 HDMI 1.4特性 * 1.2.2 HDMI 2.0特性 * 1.2.3 HDMI 2.1特性

AI绘画新选择:Janus-Pro-7B一键部署与使用指南

AI绘画新选择:Janus-Pro-7B一键部署与使用指南 1. 为什么Janus-Pro-7B值得你关注 最近AI绘画领域又迎来一位实力派选手——Janus-Pro-7B。它不是另一个微调版Stable Diffusion,也不是简单套壳的多模态模型,而是DeepSeek团队推出的真正统一架构的多模态理解与生成模型。它的特别之处在于:既能看懂图片,又能根据文字画出高质量图像,且两者共享同一套核心逻辑。 很多用户反馈,用传统文生图模型时,经常遇到“提示词写得再细,画面也跑偏”的问题;而用图文理解模型时,又发现它只能回答“这是什么”,却无法进一步生成新内容。Janus-Pro-7B恰恰解决了这个割裂——它把视觉理解和图像生成放在同一个框架里协同优化,不是拼凑,而是融合。 更实际的好处是:你不需要分别部署两个模型、切换两套界面、学习两套操作逻辑。一个模型,两种能力,一次部署,即刻可用。尤其适合想快速验证创意、做轻量级内容生产的个人开发者、设计师和内容创作者。 它不追求参数堆砌,7B规模在本地或云上都能流畅运行;也不依赖复杂工作流,没有ComfyUI节点连线的门槛,打开就能用。如

FPGA毕设从入门到实践:选题避坑、开发流程与Verilog实战指南

最近在帮学弟学妹们看FPGA毕业设计,发现大家踩的坑都出奇地一致:仿真波形看着挺美,一下载到板子就“沉默是金”;或者功能勉强能跑,但时序报告一堆红色警告,心里直发虚。今天我就结合自己的经验,系统梳理一下FPGA毕设从选题到上板的完整流程,希望能帮你避开那些“前辈们”用头发换来的教训。 一、FPGA毕设那些“经典”的坑 毕业设计时间紧、任务重,很多问题如果前期没意识到,后期调试会非常痛苦。下面这几个是高频雷区: 1. 仿真与现实的“壁”:这是最常见的问题。Testbench里时钟是理想的,复位是干净的,但板子上有晶振抖动、按键消抖、电源噪声。仿真通过的UART收发,上板后可能因为波特率误差累积而错码。关键:仿真要加入时钟抖动(#(CLK_PERIOD/10))和复位异步释放的模型,尽量逼近真实环境。 2. 时钟域的“混战”:一个工程里用了板载50MHz时钟,又通过PLL生成125MHz给DDR控制器,还接了个外部异步的传感器数据。如果不同时钟域的信号直接通信,没有经过同步器(如两级触发器),亚稳态就会导致数据采样错误,

智能家居生态系统中AI应用的变革,由AI应用架构师引领

从“指令执行”到“主动理解”:AI如何重构智能家居?架构师的底层逻辑与实践 关键词 智能家居生态、AI应用架构、主动感知、多设备协同、用户意图理解、边缘-云协同、个性化推荐 摘要 十年前,我们对“智能家居”的想象是“用手机开灯泡”;今天,我们期待的是“加班晚归时,家门自动打开,暖气已暖,米饭刚熟,音乐刚好”。这背后的质变,是AI对传统智能家居生态的底层重构——从“被动响应指令”到“主动理解需求”。 本文将以AI应用架构师的视角,拆解这场变革的核心逻辑: * 如何让设备从“听指令”进化到“猜需求”? * 如何破解多设备“各自为战”的信息孤岛? * 如何在“智能”与“隐私”之间找到平衡? 通过真实场景案例、可落地的架构设计、代码示例与生活化比喻,