【数学建模】用代码搞定无人机烟幕:怎么挡导弹最久?

【数学建模】用代码搞定无人机烟幕:怎么挡导弹最久?
前言:欢迎各位光临本博客,这里小编带你直接手撕**,文章并不复杂,愿诸君耐其心性,忘却杂尘,道有所长!!!!

**🔥个人主页:IF’Maxue-ZEEKLOG博客

🎬作者简介:C++研发方向学习者

📖**个人专栏:
《C语言》
《C++深度学习》
《Linux》
《数据结构》
《数学建模》**

⭐️人生格言:生活是默默的坚持,毅力是永久的享受。不破不立,远方请直行!

文章目录

平时看军事片里的烟幕遮蔽,其实背后藏着不少参数讲究——比如无人机往哪个方向飞、飞多快、啥时候投烟幕、烟幕啥时候爆,这些都会影响“能挡住导弹多久”。我写了一段代码专门解决这个问题,能自动算出最优参数,还能直接看结果,今天就用大白话跟大家拆解清楚。

一、先搞懂:我们要解决啥问题?

简单说,我们的目标是:让3架无人机投的烟幕,在导弹飞到假目标前,“有效遮蔽时间”最长

先明确几个关键角色的初始设定(代码里main函数能直接改):

  • 导弹起点:[20000, 0, 2000](可以理解为x/y/z坐标,单位米)
  • 真目标位置:[0, 200, 0](我们要保护的目标)
  • 3架无人机起点:比如“FY1”从[17800, 0, 1800]出发,每架位置都能调

代码里用SmokeObscurationModel这个“模型类”,把这些初始信息装进去,后续所有计算都基于这个基础。

二、核心计算:代码怎么判断“烟幕有没有用”?

烟幕不是投了就有用,得算准“啥时候生效、生效多久、能不能覆盖导弹飞来的关键期”。代码里最核心的是calculate_effective_time方法,我拆成3步说:

1. 先算单个烟幕的“有效时间段”

每架无人机投烟幕,都要算2个时间点:

  • 烟幕生效时间:无人机飞了drop_time秒后投烟,烟幕再等blast_delay秒爆炸,所以生效时间= drop_time + blast_delay
  • 烟幕失效时间:烟幕爆炸后,有效时长是effective_duration(代码里设的20秒),所以失效时间= 生效时间 + 20秒

比如代码里这段,就是算单架无人机的烟幕时间段:

smoke_blast_time = drop_time + blast_delay # 生效时间 smoke_end_time = smoke_blast_time + self.effective_duration # 失效时间 intervals.append((smoke_blast_time, smoke_end_time))# 存成“(生效,失效)”的格式

2. 合并重叠的时间段(避免重复计算)

3架无人机的烟幕可能会“叠buff”——比如A烟幕10-15秒生效,B烟幕12-18秒生效,重叠的2秒不能算2次。

代码会把所有时间段排序,然后合并重叠部分:

intervals.sort()# 先按生效时间排序 merged =[intervals[0]]# 先拿第一个时间段当基础for current in intervals[1:]: last = merged[-1]if current[0]<= last[1]:# 如果当前时间段和上一个重叠 merged[-1]=(last[0],max(last[1], current[1]))# 合并成一个长时间段else: merged.append(current)# 不重叠就直接加进去

3. 只算“导弹到达前”的有效时间

烟幕再久,导弹都已经炸了也没用。所以要先算导弹飞到假目标的时间(missile_arrival_time方法):
“导弹飞的距离 ÷ 导弹速度(代码里设300m/s)”,比如从20000米外飞过来,大概要60多秒。

然后只算“烟幕时间段”和“导弹到达前”的交集:

total =0for interval in merged: start =max(0, interval[0])# 烟幕生效时间不能早于0 end =min(missile_arrival, interval[1])# 烟幕失效时间不能晚于导弹到达if start < end:# 只要有重叠,就加这段时间 total += end - start return total # 这就是最终的“有效遮蔽时间”

三、代码优化:加了2个实用功能,结果直接看

原来的代码跑起来看不到关键结果,我改了两处,用起来更方便:

1. 跑完直接显示“最优遮蔽时长”

代码里的GeneticOptimizer(遗传优化器),会像“试错进化”一样,不断调整无人机参数(方向、速度、投放时间、起爆延迟),找到最优解。

现在跑完会直接打印结果,比如:

# 优化器返回最优参数和对应时间 best_individual, best_time = optimizer.optimize()print(f"最优遮蔽时长:{best_time:.2f}秒")# 直接显示,比如“18.72秒”

2. 参数自动存到Excel,不用手动记

3架无人机的最优参数(比如FY1要朝30度飞、速度120m/s),会自动存到result2.xlsx里,打开就能看:

df = pd.DataFrame({'无人机ID':['FY1','FY2','FY3'],'方向角度(度)': best_individual[0::4],# 每4个参数对应1架无人机'飞行速度(m/s)': best_individual[1::4],'投放时间(s)': best_individual[2::4],'起爆延迟(s)': best_individual[3::4]}) df.to_excel('result2.xlsx', index=False)# 保存到Excel

四、怎么跑代码?看2个关键步骤

1. 先补全“遗传优化”的核心逻辑

代码里optimize方法有个小缺口——“选择、交叉、变异”这三步没写全(这是遗传算法的核心,用来“筛选好参数、生成新参数”)。补全示例可以参考:

# 补全选择:选效果好的参数留下 fitnesses =[self.evaluate(ind)for ind in population]# 按适应度(有效时间)排序,选前50% sorted_pop =sorted(zip(population, fitnesses), key=lambda x: x[1], reverse=True) selected =[ind for ind, _ in sorted_pop[:self.pop_size//2]]# 补全交叉:两个好参数“混合”出新品 offspring =[]for i inrange(0,len(selected),2): parent1 = selected[i] parent2 = selected[i+1]if i+1<len(selected)else parent1 # 随机选个位置交叉参数 cross_pos = random.randint(1,len(parent1)-1) child = parent1[:cross_pos]+ parent2[cross_pos:] offspring.append(child)# 补全变异:偶尔改个参数,避免“钻牛角尖”for ind in offspring:if random.random()<0.1:# 10%的变异概率 param_idx = random.randint(0,len(ind)-1) low, high = self.param_ranges[param_idx] ind[param_idx]= random.uniform(low, high)# 新种群 = 选出来的好参数 + 新生成的参数 population = selected + offspring 

2. 调参数平衡“速度”和“精度”

第一次跑可以先设小一点规模,避免等太久:

  • pop_size=50(每次试50组参数,默认150)
  • generations=50(试50轮,默认80)

比如改优化器初始化:

optimizer = GeneticOptimizer(model, pop_size=50, generations=50)

五、避坑提醒

  1. 方向角度要转弧度:代码里已经用np.radians(i_param)把“度”转成“弧度”(数学计算需要),不用自己再改;
  2. 运行时间可能长:如果参数设得大(比如150种群、80世代),建议用多进程加速(可以搜“Python多进程计算”);
  3. 先小规模测试:第一次跑先试pop_size=30generations=30,确认代码能跑通,再调大参数追求精度。

最后:跑出来的结果长这样

最优遮蔽时长:18.72秒 参数已保存到result2.xlsx 

打开Excel就能看到每架无人机的具体参数——比如FY1要朝45度飞,速度130m/s,10秒后投烟幕,5秒后起爆,这样3架配合起来,能挡导弹近19秒。

如果想调整场景(比如导弹速度变了、无人机起点改了),直接改main函数里的初始参数就行,代码会自动重新算最优解~

Read more

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

国产AIGC视频大模型正加速落地,RTX 4090凭借强大算力与大显存,成为本地部署腾讯混元、阿里通义万相等前沿视频生成模型的最佳选择,开启桌面级AI创作新时代。 目录 * 一、引言:国产AIGC视频大模型,桌面算力的新疆域 * 二、解锁潜能:RTX 4090与国产视频大模型的协同优势 * 三、项目解析:国产AIGC视频模型的创新之路 * 四、部署与环境搭建:国产模型的本地化实践 * 4.1 基础环境准备 * 4.2 模型部署流程:腾讯混元与阿里通义万相的本地化实战 * 4.3 ComfyUI 集成与优化 * 五、性能测试与对比:RTX 4090 的硬核实力 * 5.1 生成速度实测 (fps / s/frame) * 5.2 显存消耗与优化策略 * 六、实际应用场景:国产模型赋能创意工作流 * 七、

【混元AIGC+腾讯云智能体+首创Coze核心流思维导图MCP】:打造一个文思通-智能写作助手Agent

【混元AIGC+腾讯云智能体+首创Coze核心流思维导图MCP】:打造一个文思通-智能写作助手Agent

【混元AIGC+腾讯云智能体+首创Coze核心流思维导图MCP】:打造一个文思通-智能写作助手Agent 1.背景 作为一名长期关注人工智能发展的内容创作者,我经常需要撰写关于AI技术、应用趋势和产品体验的文章。然而,在实际写作过程中,常常会遇到灵感枯竭、结构混乱、表达不够精准等问题。有时候写到一半才发现逻辑断层,或者内容重复,甚至忘记了一些关键知识点。 为了解决这些痛点,我决定打造一个专属于自己的智能写作助手,取名为“文思通”——寓意“文思如泉涌,条理通达”。这个助手不仅要能帮我生成内容,更要具备结构化思维引导、逻辑梳理和语言润色的能力。 最近,我接触到一种创新的工具组合:以 Coze 平台为核心逻辑流,结合自研的思维导图 MCP 服务,可以实现从文本到可视化思维导图的自动转换。这正好解决了我在构思阶段缺乏条理的问题。而选择开发平台时,我注意到腾讯云智能体开发平台与腾讯混元大模型(Hunyuan AIGC) 的深度整合能力非常出色,支持工作流编排、插件扩展(MCP),并且提供稳定高效的推理服务。 最终,我决定采用“混元AIGC + 腾讯云智能体平台

Python 面向对象(OOP)速成指南:从零开始打造你的“智能家居”

Python 面向对象(OOP)速成指南:从零开始打造你的“智能家居”

欢迎来到 Python 面向对象编程的世界! 如果你习惯了面向过程的“流水账”式写法,或者你是正在从 Java 痛苦(误)转型 Python 的工程师,这篇文章就是为你准备的。今天,我们不讲枯燥的理论,我们将化身架构师,用上帝视角打造一套智能家居系统。 🏗️ 第一章:上帝的图纸 —— 类与对象 在 Python 中,一切皆对象。但对象从哪来?得先有图纸。 * 类 (Class):就是图纸(或者模具)。 * 对象 (Object):就是根据图纸造出来的实物(比如你家的那个具体的小爱同学)。 1.1 定义你的第一个设备 我们先定义一个最基础的电器类。 classSmartDevice:"""智能设备基类"""# 类变量:所有设备通用的标签(类似

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告?

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告? 最近收到不少同学私信问我:"学长,我硕士论文马上要送盲审了,学校说要做AIGC检测,但盲审评委真的会看这个报告吗?"说实话,这个问题我当初也纠结过。今天就把我了解到的情况和大家详细聊聊,希望能帮到正在准备盲审的同学。 盲审流程中AIGC检测处于什么位置? 盲审前的"关卡"越来越多 以前硕士论文盲审,学校主要关注的就是查重率。但从2025年下半年开始,越来越多的高校在盲审前增加了AIGC检测环节。根据我收集到的信息,目前的盲审流程大致是这样的: 环节时间节点负责方是否涉及AI检测论文提交盲审前2-4周研究生院部分学校要求提交检测报告查重检测盲审前1-2周学院/研究生院与AIGC检测同步进行AIGC检测盲审前1-2周学院/研究生院是,多数用知网系统送审盲审开始研究生院统一安排部分学校附带检测报告评审盲审期间(2-4周)外校评委评委可能收到报告 三种常见的学校处理方式 经过调研,我发现不同学校对盲审中AIGC检测的处理方式主要分三种: 第一种:检测不通过直接不送审。 这是最严格的情况。如果AIGC检测率超过