Submodular function次模函数 概念——AI学习

Submodular function次模函数 概念——AI学习

论文名称:Submodularity In Machine Learning and Artificial Intelligence


一、综述论文

这篇文章是一篇 综述论文(survey)

核心目标是:

介绍 Submodular functions(次模函数) 以及它们在 机器学习与人工智能中的应用

作者想说明一个非常重要的观点:

很多机器学习问题其实是“离散优化问题”。

例如:

  • Feature Selection:属于数据预处理问题,旨在从原始特征中筛选出最相关、最有信息量的子集,以降低维度、提升模型性能与可解释性。
  • Dataset Subset Selection:属于数据采样或核心集选择问题,旨在从大规模数据中选取一个具有代表性的子集,以降低计算和存储成本,同时保持模型性能。
  • Active Learning:属于机器学习训练策略问题,通过让模型主动选择最有价值的数据进行标注,以最少的标注成本最大化模型性能。
  • Clustering:属于无监督学习问题,旨在根据数据的内在相似性,将未标记的数据自动分组为不同的类别或簇。
  • Data summarization:属于信息压缩与呈现问题,旨在通过生成简洁的摘要(如关键点、代表性样本或可视化)来捕捉大型数据集或复杂数据的核心信息。

这些问题的共同特点:决策变量是 集合 (set) 不是连续变量。

例如:从1000个数据里选100个,从100个特征里选20个,组合数量是指数级的。

因此:

需要一种结构,使得 指数空间的问题仍然能高效优化

这就是 Submodular Function 的意义。

作者提出一个很重要的类比:

连续优化离散优化
convex functionsubmodular function

可以简单理解为:Submodular ≈ 离散版本的 convex/concave 结构 但其实更复杂。


二、什么是 Submodular Function(核心)

论文给出的正式定义是:

对于集合函数:

f:2^V \rightarrow R

即:

输入:集合的子集

输出:一个数值

满足:

f(A)+f(B) \ge f(A\cup B)+f(A\cap B)

对所有集合 A,B。

这叫:

Submodular inequality


更直觉的理解

论文强调:

Submodularity = Diminishing Returns

即:

边际收益递减

数学表达:

f(A \cup \{e\}) - f(A) \ge f(B \cup \{e\}) - f(B)

当:

A \subseteq B

意思是:

同一个元素 e 加入 小集合 的价值 ≥ 加入 大集合 的价值

这就是 submodular 的核心思想


可视化解释

这张图表示:

f(S) = 集合 S 的“价值” |S| = 集合大小(选了多少个元素)

曲线特点:一开始增长很快,后面越来越平

集合大小

f(S)

增长

0 → 1

0 → 1

+1

1 → 2

1 → 1.41

+0.41

2 → 3

1.41 → 1.73

+0.32

...

...

越来越小

这正是:边际收益递减(Diminishing Returns)


这张图更关键,它直接画的是:每增加一个元素,带来的“新增价值”

也就是:

f(S ∪ {x}) − f(S)

可以看到:

  • 第一个元素 → 增益最大(≈1)
  • 后面越来越小(0.4 → 0.3 → 0.2 → ...)

这张图就是 Submodular 的本质图像


三、论文给出的例子

“朋友的价值”

设:f(S) = 朋友集合 S 的价值

如果你已经有很多朋友:再增加一个朋友的价值会==》 变小。如果你朋友很少那么==》新朋友价值 更大

例如:

第 1个朋友:价值 10

第10个朋友:价值 1

所以:

f({}) → f({A}) 增量很大

f({A,B,C,D}) → f({A,B,C,D,E}) 增量较小

这就是传说中的:边际收益递减


四、论文里的复杂例子(咖啡、牛奶、茶)

论文用一个比较复杂的例子说明:

物品之间可能存在三种关系:

1 Submodular(替代关系)

例如: coffee + tea 两者功能类似。

所以:

f(coffee, tea) < f(coffee) + f(tea)

因为它们是 substitutes替代品


2 Supermodular(互补关系)

例如:coffee + milk 组合更好。

所以:

f(coffee, milk) > f(coffee) + f(milk)

叫:complementarity互补者


3 Modular(独立)

例如:lemon + milk 互不影响

f(A,B) = f(A) + f(B)


所以:

类型数学
Submodulardiminishing returns
Supermodularincreasing returns
Modularlinear

五、信息论里的经典例子:Entropy

论文给了一个非常重要的结论:

Entropy 是 submodular 函数

设:f(S) = H(X_S)

即:某个变量集合的 entropy。

满足:

f(A)+f(B) \ge f(A\cup B)+f(A\cap B)

原因:互信息非负。

这在信息论里叫:Shannon inequality香农不等式


六、常见 Submodular Function 类型

论文列了一些机器学习里常见的:


1 concave over cardinality

例如:

f(S)=\sqrt{|S|}

因为:

\sqrt{x}

是 concave。

所以:边际增长递减。


2 Feature-based function

形式:

f(S)=\sum_i g_i(\sum_{j\in S}w_{ij})

其中:

g_i

是 concave

常见于:

NLP

document summarization


3 Facility Location(重要)

定义:

f(S)=\sum_{i\in V}\max_{j\in S} sim(i,j)

含义:每个点 i,找 S 中最像的点

用于:

  • data summarization
  • clustering
  • representative subset

4 Set Cover

f(S)=|\cup_{i\in S}C_i|

含义:S 覆盖的元素数量。

常见:

document summarization

sensor placement


七、Submodular 为什么重要

因为它有 优化保证

对于:

Submodular Maximization子模最大化

例如:

max f(S)

s.t. |S| ≤ k

使用:

Greedy algorithm贪心

可以保证:

$$(1 - 1/e) \approx 0.63$$

近似最优。

这是一个 非常强的理论保证


八、机器学习中的应用

论文后半部分主要讲应用:

1 文本摘要

从 100 句新闻选 5 句。目标是覆盖尽量多信息,避免重复

这种目标函数很适合:submodular


2 数据集压缩

例如:100万训练样本,选1万代表样本

目标:覆盖整个数据分布


3 特征选择

例如:1000 个特征,选50 个

目标:信息最多,冗余最少


4 Active Learning

有 100 万未标注数据。

选择:最有信息的 1000 个去标注


九、总结

Submodular function 的本质:

一种具有“边际收益递减”性质的集合函数,使得许多指数级的离散优化问题可以高效近似求解。

它在机器学习中的作用类似于:convex function 在连续优化中的作用

拙见:

很多 AI 问题都是“从一堆东西里选一个子集”

例如:选数据、选句子、选特征、选代表点

如果目标函数是submodular、那么 用 greedy 算法就能得到接近最优的解

所以:submodular = 让组合优化变得可解


(WenJGo^_^全文完)

Read more

【PX4+QGroundControl+MAVROS+Gazebo】PX4控制在Gazebo中控制自己的无人机

目录 前言 一、PX4、MAVROS、QGroundControl之间的关系 1.1 Gazebo与PX4通信 1.2 PX4与QGroundControl通信 1.3 总结 二、实现过程【以阿木实验室P230为例】 2.1 仿真环境 2.2 模型建立 2.3 建立gazebo和MAVROS之间的连接 2.4 建立MAVROS和PX4之间的连接 2.5 验证实验结果 三、一个失败的地方 总结 前言 笔者在准备用阿木实验室-P230无人机仿真的时候,发现官方给的该无人机仿真的代码依赖于该公司的Prometheus、Prometheus-PX4以及QGroundControl软件。但是笔者日后想把自己的项目上传到Github上,如果把整个阿木实验室的PX4上传上去显得不现实,且也占很大存储。因此,笔者会从小白的角度【因为笔者也是Green Bird】,介绍将自己的无人机连接PX4的办法。以下内容仅供参考,若有误,

宇树VR遥操与IL——从遥操程序xr_teleoperate到unitree_IL_lerobot:如何基于G1进行manipulation开发

宇树VR遥操与IL——从遥操程序xr_teleoperate到unitree_IL_lerobot:如何基于G1进行manipulation开发

前言 如之前的文章所述,我司「七月在线」正在并行开发多个订单,目前正在全力做好每一个订单,因为保密协议的原因,暂时没法拿出太多细节出来分享 但可以持续解读我们所创新改造或二次开发的对象,即解读paper和开源库「当然 有些paper/库还没开始用,但也可以提前解读,作为关注了解」 而对于我司人形开发的订单,截止到25年4月,背后的机器人多半基于这几家:宇树、智元、傅利叶、乐聚「之所以用的这几家,一半因为我和这些公司熟,一半因为客户已有其中某一家或某几家的本体 需在其基础上做定制开发,如其它厂商看到 有兴趣合作,欢迎私我,比如星动纪元、星海图、众擎等等」 * 通过此文《Fourier-Lerobot——把斯坦福人形动作策略iDP3封装进了Lerobot(含我司七月的idp3落地实践)》可知,傅利叶 把idp3 装进了lerobot * 类似的,宇树 通过此开源库「unitree_IL_lerobot」,也把lerobot 集成了下 该库包含了π0策略 且无论咱们是用傅利叶集成的lerobot—

论文阅读 | MiniCPM-o | RLAIF-V开源AI反馈助力模型可信度超越GPT-4V

论文阅读 | MiniCPM-o | RLAIF-V开源AI反馈助力模型可信度超越GPT-4V

论文地址:https://arxiv.org/pdf/2405.17220 发布时间:2024年5月27日 =》2025 年 10 月 29 日 v3版本 论文主要由豆包AI翻译 论文总结 核心目标 解决现有多模态大语言模型的幻觉问题,突破传统RLHF依赖人工标注、现有RLAIF依赖专有模型的局限,通过全开源范式构建高质量反馈,实现模型可信度与人类偏好的对齐。 核心创新 1. 去混淆响应生成:相同条件下多轮采样解码,消除文本风格干扰,凸显可信度真实差异; 2. 分而治之反馈标注:将响应拆解为原子声明,转换为极性问题评估,降低开源模型标注难度; 3. 迭代反馈学习:动态更新反馈分布,解决DPO训练中的分布偏移问题; 4. 推理自反馈机制:利用DPO对齐模型的奖励分数,结合长度归一化策略,优化推理阶段性能。 关键结果 1. 幻觉抑制显著:RLAIF-V 7B将物体幻觉率降低80.7%

低代码治理之道:构建 Power Platform 中心化管控与创新平衡的体系

在企业数字化转型进程中,Power Platform 凭借 “低代码、高敏捷” 的特性成为业务创新的核心工具,但 “人人皆可开发” 的模式也带来了治理真空的严峻挑战:应用杂乱无章、数据安全失控、合规风险凸显、成本无序增长,最终导致 “创新红利” 被 “治理乱象” 抵消。本文将围绕治理框架设计、CoE(中心卓越团队)建设、安全审查流程、成本控制机制四大核心,拆解 Power Platform 中心化管控体系的构建方法,结合实战代码范例,帮助企业实现 “管控不僵化、创新不越界” 的治理平衡。 一、核心认知:Power Platform 治理真空的根源与破局思路 Power Platform 治理真空的本质是 “去中心化创新” 与 “中心化管控” 的失衡,具体表现为: * 缺乏统一的治理框架,应用开发无标准、无审批、