JFM | 空军工程大学宗豪华、吴云等:基于FPGA的深度强化学习框架实现超音速闭环智能流动控制实验

JFM | 空军工程大学宗豪华、吴云等:基于FPGA的深度强化学习框架实现超音速闭环智能流动控制实验

基于高速实验深度强化学习框架的超音速闭环流动控制

Closed-loop supersonic flow control with a high-speed experimental deep reinforcement learning framework

宗豪华¹,吴云¹,李金平²,苏志²,梁华²

引用格式:H. Zong, Y. Wu, J. Li, Z. Su, and H. Liang. Closed-loop supersonic flow control with a high-speed experimental deep reinforcement learning framework[J], Journal of Fluid Mechanics, 2025, 1009: A3.

编者按

复杂流动控制研究受限于缺乏低阶显示表达的流体动力学模型,所以长期以来多采用试探、观察和分析三步走“马后炮”式研究模式。无模型自适应控制、强化学习和流场预解分析技术的发展,为打破这类研究模式提供了强有力的方法基础。此文就是一篇深度强化学习解决复杂高速流动闭环控制的杰作。相比低速、低Re流动,高速流动的频谱更宽、流动结构尺度更丰富、系统复杂性更强,这对硬件响应和算法实时性提出了更大的挑战。该文以Ma=2的后台阶流动为例(Re和速度在公开文献中,皆创纪录),采用提出的FeDRL框架,通过仅需10s的风洞运行,就能设计出性能碾压传统遍历试凑法(最佳定频控制,数小时/数天)获得的控制律。

摘要:

虽然基于深度强化学习(DRL)的主动流动控制已经在低雷诺数仿真环境中得到了广泛的验证,但在真实实验条件下进行DRL控制仍存在很大挑战,其中之一便是数据采集和神经网络推理的强实时性(亚ms量级)。本研究提出了一种基于FPGA的高速实验深度强化学习框架(缩写:FeDRL),控制频率最高可10 kHz,比传统基于CPU的框架(100 Hz以下)高出两个数量级。以Mach 2的超音速后台阶流动为例,对FeDRL增强流动掺混的有效性进行测试。结果表明,仅需10秒的风洞运行时间,就能训练出比最佳定频控制还要优越的闭环控制律,将剪切层速度脉动增加21.2%。如此高的控制律优化效率在以前的闭环流动控制实验中还从未报道过(典型风洞测试时间:数小时至数天)。

正文:

图1 现有DRL流动控制研究所对应的速度和雷诺数

主动流动控制(AFC)通过在流场中引入局部可控扰动来改善绕流物体的宏观特性,有望大幅改善飞行器的气动性能,其核心是控制律。深度强化学习作为一种解决博弈和决策问题的最佳机器学习方法,为主动流动控制提供了一个全新思路。图1总结了目前基于DRL的流动控制研究。总体来看,大部分的研究都在低雷诺数条件下开展,对象包括圆柱、翼型等。相比之下,实验研究较少,尤其是高速高雷诺数航空流动的深度强化学习实验研究,目前还是一片空白(图1绿色区域)。这其中的主要难度在于航空流动速度高、湍流结构演化快,典型特征频率在kHz量级。为了能够实现实时在线控制,要求深度强化学习必须在μs量级实现流场感知、神经网络推理以及激励输出。基于CPU的DRL框架受数据通信、采集等环节的限制,控制频率通常在100Hz以下。

图2 基于DRL和RBF神经网络的高速实验DRL控制框架

本研究通过对硬件和算法的高度整合,提出了一种基于FPGA(现场可编程逻辑门阵列)的高速实验DRL控制框架(FeDRL)。数据采集模块直接挂载在FPGA上,能够在一个时钟周期内抓取和输出数据,同时神经网络的计算也能够利用FPGA进行加速,省去了传统框架中硬件间的通信时间。图2以经典的DQN算法为例进行了示意。该框架包含了两个并行执行的循环:在FPGA控制器中高速执行的实时控制循环(1-10kHz)和在CPU上的低速训练循环(10Hz)。神经网络控制律采用了结构简单、参数量少的径向基函数进行表达,典型控制频率可以达到1kHz量级以上。前期,该框架的有效性已在低速后台阶流动(POF, 2024, 36:105102)和翼型分离流动(POF, 2024, 36:091708)中得到了验证。本研究的重点旨在进一步将其拓展到超音速流动。

图3 (a)- (b)平板实验模型的示意图;(c)等离子体激励器结构

超音速后台阶流动控制实验在空军工程大学的超音速风洞中进行,马赫数为2。等离子体合成射流激励器作为主动控制装置对流场施加扰动,下游剪切层中的热线传感器提供流场的反馈信息,目标是最大化剪切层内的速度脉动。结果表明,仅需10秒的训练时间,FeDRL框架就能找到有效的闭环控制策略,使瞬时奖励rt从0上升至0.2左右,同时训练损失也在10秒内迅速收敛。对比基于策略的DRL算法(如PPO),FeDRL框架的优化效率高出一个数量级。从功率谱密度对比也可验证DRL控制的有效性,最佳案例下的的速度脉动增加量可达21.2%。通过控制律可视化可以发现,DRL控制策略可以进一步简化为二维的阈值触发控制策略:即当剪切层的瞬时位置高于基准平均位置时,应开启等离子体激励施加一次脉冲扰动。

图4 (a)瞬时奖励和损失的变化;(b)激励概率变化;(c)功率谱;(d)控制指令分布

将这种DRL控制策略与开环控制方法进行比较。结果表明,大部分放电频率下等离子体合成射流都能使功率谱峰值和低频波动幅度升高。随着放电频率的增加,热线速度脉动先增大后减小,最大值出现在放电频率为5 kHz时,与DRL中的动作更新频率一致。但定量来看,定频控制所获得的控制收益(10.5%)仅为最佳DRL控制(21.2%,案例2)的一半。

图 5 (a)功率谱密度和(b)电压脉动值的相对增加

公众号原文链接(文末附论文资源):

https://mp.weixin.qq.com/s/lGFg7WxLUo5q8RNsXnQZPA

相关论文推荐:

PRF|西北工业大学高传强,杨新宇等:复杂流动建模的新途径:基于闭环辨识的线性建模方法

AIAA J | 西北工业大学高传强,马榕池等:基于解析分析的跨声速激波抖振最优射流控制位置和角度设计

力学学报 | 西工大袁昊、寇家庆等:流体力学预解分析方法研究进展

博士学位答辩PPT分享 | 数据驱动的典型分离流及其流固耦合动力学控制研究

JFM|哈工大(深圳)胡钢团队:基于稀疏表面压力感知的动态特征驱动深度强化学习圆柱流动控制方法

POF | 哈尔滨工业大学(深圳)董欣辉等:基于代理模型和深度强化学习的圆柱主动流动控制实验研究

基于深度强化学习的方柱主动流动控制研究

梯度增强的机器学习控制方法用于稳定多频率开腔流动

注:本文由论文原作者整理并投稿分享,获作者授权发布。

Read more

深入解读 AI 编程工具 — Cursor

在 AI 工具爆发的时代,各类辅助编程产品层出不穷。而其中 Cursor 因其独特的设计与对开发者真实问题的深度关注,正在成为开发者群体热议的焦点。 本文将带你清晰了解:什么是 Cursor?它如何工作?真正解决了哪些痛点?为何能成为行业快速增长的工具?  一、Cursor 的起源与快速成长 Cursor 背后的初创公司 Anysphere 成立于 2022 年,而 Cursor 的首个版本在 2023 年 3 月推出。仅仅两年时间,Anysphere 就完成了 9 亿美元的 C 轮融资,公司估值高达 99 亿美元!更令人惊讶的是,Cursor 的年收入已经突破 5 亿美元,这在开发工具领域几乎前所未有——据我所知,没有其他公司能在推出第一款产品后的两年内达到这样的规模。 Cursor 的快速普及也得益于企业级市场的认可:

前端Canvas:让你的网站更具视觉冲击力

前端Canvas:让你的网站更具视觉冲击力 毒舌时刻 前端Canvas?这不是游戏开发才用的吗? "Canvas性能差,我不用"——结果错过了丰富的视觉效果, "Canvas太复杂了,我学不会"——结果只能用静态图片, "我用CSS就够了,要Canvas干嘛"——结果无法实现复杂的动画效果。 醒醒吧,Canvas不是游戏开发的专利,前端也可以用它来创建丰富的视觉效果! 为什么你需要这个? * 丰富的视觉效果:创建动态图形、动画和游戏 * 高性能:直接操作像素,性能优异 * 交互性:支持鼠标、触摸等交互 * 数据可视化:绘制图表、仪表盘等 * 跨平台:在所有现代浏览器中运行 反面教材 // 反面教材:简单的Canvas绘制 function drawCircle() { const canvas = document.getElementById('canvas'

手把手教你用ESP32-S3开发板打造小智AI语音助手(含DeepSeek/Qwen接入指南)

手把手教你用ESP32-S3开发板打造小智AI语音助手(含DeepSeek/Qwen接入指南) 几年前,当我第一次把一块小小的ESP32开发板连接到电脑上,看着它闪烁的LED灯时,我完全没想到,今天我会用它来构建一个能听懂我说话、能和我智能对话的AI伙伴。硬件开发曾经是那么遥不可及,需要复杂的电路知识、昂贵的设备和漫长的学习曲线。但现在,一切都变了。 ESP32-S3这颗芯片,以其强大的处理能力、丰富的接口和亲民的价格,正在重新定义AI硬件开发的门槛。结合开源的语音识别框架和如今触手可及的大语言模型,我们每个人都能在自家的工作台上,亲手打造一个属于自己的智能语音助手。这不再是科技巨头的专利,而是每个硬件爱好者和AI初学者都能实现的梦想。 这篇文章,就是为你准备的实战指南。无论你是第一次接触ESP32的硬件新手,还是对AI应用充满好奇的开发者,我都会带你一步步走完整个流程——从硬件选型到固件烧录,从网络配置到模型接入,最后实现一个真正能用的、支持离线/在线混合模式的智能语音交互系统。我们不仅会使用现成的方案,更会深入探讨如何实现本地化部署,让你对自己的AI助手有完全的控制权。

A2UI与AG-UI深度对比:两大AI界面协议的异同与选择

A2UI与AG-UI深度对比:两大AI界面协议的异同与选择

名字相似,目标不同:一个让AI画界面,一个让AI连接应用 开篇:一个容易混淆的问题 如果你最近在关注AI智能体技术,可能会遇到两个名字非常相似的协议:A2UI和AG-UI。 第一次看到这两个名字,很多人都会困惑: * 这是同一个东西吗? * 如果不是,它们有什么区别? * 我应该用哪一个? 这种困惑是完全可以理解的。毕竟,它们的名字只差一个字母,都和"AI"、"UI"有关,而且都是2024-2025年才出现的新协议。 但实际上,A2UI和AG-UI是两个完全不同的协议,解决的是不同层面的问题。 让我用一个简单的比喻来说明: * A2UI就像是一种"UI设计语言",告诉前端"应该画一个什么样的界面" * AG-UI就像是一条"通信管道",负责在智能体和前端应用之间传递各种信息 一个关注"画什么",一个关注"