现有算法的局限性
几乎所有声称基于学习或历史的拥塞控制算法都在利用局部性原理,例如简单的移动指数平均。这类方法企图用刚刚逝去的历史启动现在,即便历史表明 RTT 一直在上下波动,这种启发式算法给出的往往只是一个单一的预测值,难以保证准确性。
Linux 内核曾提供 net.ipv4.tcp_no_metrics_save = 0 参数,但实际效果有限。单纯增加 metric 数量若无长程依赖的发现机制,依然无效。关键在于不同跨度的错开,而非单一环比。
多尺度历史分析策略
使用不同时间跨度的同比替代单一环比,能更精确地刻画历史细节。所有的尺度同比数据如同傅里叶展开,展示整个历史在任意精度下的全貌。通过 n 个跨度的移动指数平均跟踪 RTT,可以快速发现长程依赖规律,从而确定不同时间段的 cwnd 设置。
基于神经网络的实现方案
为了保存多个跨度的详细数据(秒、分钟、小时、日、周等),传统均值存储无法满足需求。现代方案可结合大模型技术,将各跨度的 RTT、cwnd 信息作为数据喂养,使历史塑造在神经网络的权重中。推理时输入当前度量,输出 cwnd 建议。损失函数可设计为 sigmoid(rtt/bw) + sigmoid(丢包率),具体复杂度视需求而定。
传统数据流方案对比
另一种方法是参考 TCPRT,实时或周期性通过 relayfs 将数据吐给专门的数据分析服务。但此类方案通常缺乏干净利索的损失函数进行反哺。相比之下,基于大模型的方案更为清爽高效。

