Submodular function次模函数 概念——AI学习

Submodular function次模函数 概念——AI学习

论文名称:Submodularity In Machine Learning and Artificial Intelligence


一、综述论文

这篇文章是一篇 综述论文(survey)

核心目标是:

介绍 Submodular functions(次模函数) 以及它们在 机器学习与人工智能中的应用

作者想说明一个非常重要的观点:

很多机器学习问题其实是“离散优化问题”。

例如:

  • Feature Selection:属于数据预处理问题,旨在从原始特征中筛选出最相关、最有信息量的子集,以降低维度、提升模型性能与可解释性。
  • Dataset Subset Selection:属于数据采样或核心集选择问题,旨在从大规模数据中选取一个具有代表性的子集,以降低计算和存储成本,同时保持模型性能。
  • Active Learning:属于机器学习训练策略问题,通过让模型主动选择最有价值的数据进行标注,以最少的标注成本最大化模型性能。
  • Clustering:属于无监督学习问题,旨在根据数据的内在相似性,将未标记的数据自动分组为不同的类别或簇。
  • Data summarization:属于信息压缩与呈现问题,旨在通过生成简洁的摘要(如关键点、代表性样本或可视化)来捕捉大型数据集或复杂数据的核心信息。

这些问题的共同特点:决策变量是 集合 (set) 不是连续变量。

例如:从1000个数据里选100个,从100个特征里选20个,组合数量是指数级的。

因此:

需要一种结构,使得 指数空间的问题仍然能高效优化

这就是 Submodular Function 的意义。

作者提出一个很重要的类比:

连续优化离散优化
convex functionsubmodular function

可以简单理解为:Submodular ≈ 离散版本的 convex/concave 结构 但其实更复杂。


二、什么是 Submodular Function(核心)

论文给出的正式定义是:

对于集合函数:

f:2^V \rightarrow R

即:

输入:集合的子集

输出:一个数值

满足:

f(A)+f(B) \ge f(A\cup B)+f(A\cap B)

对所有集合 A,B。

这叫:

Submodular inequality


更直觉的理解

论文强调:

Submodularity = Diminishing Returns

即:

边际收益递减

数学表达:

f(A \cup \{e\}) - f(A) \ge f(B \cup \{e\}) - f(B)

当:

A \subseteq B

意思是:

同一个元素 e 加入 小集合 的价值 ≥ 加入 大集合 的价值

这就是 submodular 的核心思想


可视化解释

这张图表示:

f(S) = 集合 S 的“价值” |S| = 集合大小(选了多少个元素)

曲线特点:一开始增长很快,后面越来越平

集合大小

f(S)

增长

0 → 1

0 → 1

+1

1 → 2

1 → 1.41

+0.41

2 → 3

1.41 → 1.73

+0.32

...

...

越来越小

这正是:边际收益递减(Diminishing Returns)


这张图更关键,它直接画的是:每增加一个元素,带来的“新增价值”

也就是:

f(S ∪ {x}) − f(S)

可以看到:

  • 第一个元素 → 增益最大(≈1)
  • 后面越来越小(0.4 → 0.3 → 0.2 → ...)

这张图就是 Submodular 的本质图像


三、论文给出的例子

“朋友的价值”

设:f(S) = 朋友集合 S 的价值

如果你已经有很多朋友:再增加一个朋友的价值会==》 变小。如果你朋友很少那么==》新朋友价值 更大

例如:

第 1个朋友:价值 10

第10个朋友:价值 1

所以:

f({}) → f({A}) 增量很大

f({A,B,C,D}) → f({A,B,C,D,E}) 增量较小

这就是传说中的:边际收益递减


四、论文里的复杂例子(咖啡、牛奶、茶)

论文用一个比较复杂的例子说明:

物品之间可能存在三种关系:

1 Submodular(替代关系)

例如: coffee + tea 两者功能类似。

所以:

f(coffee, tea) < f(coffee) + f(tea)

因为它们是 substitutes替代品


2 Supermodular(互补关系)

例如:coffee + milk 组合更好。

所以:

f(coffee, milk) > f(coffee) + f(milk)

叫:complementarity互补者


3 Modular(独立)

例如:lemon + milk 互不影响

f(A,B) = f(A) + f(B)


所以:

类型数学
Submodulardiminishing returns
Supermodularincreasing returns
Modularlinear

五、信息论里的经典例子:Entropy

论文给了一个非常重要的结论:

Entropy 是 submodular 函数

设:f(S) = H(X_S)

即:某个变量集合的 entropy。

满足:

f(A)+f(B) \ge f(A\cup B)+f(A\cap B)

原因:互信息非负。

这在信息论里叫:Shannon inequality香农不等式


六、常见 Submodular Function 类型

论文列了一些机器学习里常见的:


1 concave over cardinality

例如:

f(S)=\sqrt{|S|}

因为:

\sqrt{x}

是 concave。

所以:边际增长递减。


2 Feature-based function

形式:

f(S)=\sum_i g_i(\sum_{j\in S}w_{ij})

其中:

g_i

是 concave

常见于:

NLP

document summarization


3 Facility Location(重要)

定义:

f(S)=\sum_{i\in V}\max_{j\in S} sim(i,j)

含义:每个点 i,找 S 中最像的点

用于:

  • data summarization
  • clustering
  • representative subset

4 Set Cover

f(S)=|\cup_{i\in S}C_i|

含义:S 覆盖的元素数量。

常见:

document summarization

sensor placement


七、Submodular 为什么重要

因为它有 优化保证

对于:

Submodular Maximization子模最大化

例如:

max f(S)

s.t. |S| ≤ k

使用:

Greedy algorithm贪心

可以保证:

$$(1 - 1/e) \approx 0.63$$

近似最优。

这是一个 非常强的理论保证


八、机器学习中的应用

论文后半部分主要讲应用:

1 文本摘要

从 100 句新闻选 5 句。目标是覆盖尽量多信息,避免重复

这种目标函数很适合:submodular


2 数据集压缩

例如:100万训练样本,选1万代表样本

目标:覆盖整个数据分布


3 特征选择

例如:1000 个特征,选50 个

目标:信息最多,冗余最少


4 Active Learning

有 100 万未标注数据。

选择:最有信息的 1000 个去标注


九、总结

Submodular function 的本质:

一种具有“边际收益递减”性质的集合函数,使得许多指数级的离散优化问题可以高效近似求解。

它在机器学习中的作用类似于:convex function 在连续优化中的作用

拙见:

很多 AI 问题都是“从一堆东西里选一个子集”

例如:选数据、选句子、选特征、选代表点

如果目标函数是submodular、那么 用 greedy 算法就能得到接近最优的解

所以:submodular = 让组合优化变得可解


(WenJGo^_^全文完)

Read more

OpenClaw实战系列01:OpenClaw接入飞书机器人全接入指南 + Ollama本地大模型

文章目录 * 引言 * 第一步:环境准备与核心思想 * 第二步:部署Ollama——把大模型“养”在本地 * 1. 安装 Ollama * 2. 拉取并运行模型 * 3. 确认API可用性 * 第三步:安装OpenClaw——AI大脑的“躯干” * 1. 安装Node.js * 2. 一键安装 OpenClaw * 3. 验证安装 * 第四步:打通飞书——创建并配置机器人 * 1. 创建飞书应用 * 2. 配置机器人能力 * 3. 发布应用 * 第五步:OpenClaw与飞书“握手” * 方法一:使用 onboard 向导重新配置(推荐最新版) * 方法二:手动添加渠道 * 批准配对 * 第六步:实战测试与玩法拓展

基于分布式光纤声波传感(DAS)的无人机入侵探测技术与应用

基于分布式光纤声波传感(DAS)的无人机入侵探测技术与应用

一、背景概述 随着无人机技术的普及,其在航拍、巡检、物流等领域发挥积极作用的同时,也带来了“低空入侵”与“非法飞行”等安全隐患。在机场、军事设施、能源基础设施及重要园区等重点区域,传统的雷达、视频或无线电监测手段在低空、隐身性、小目标**场景下仍存在一定局限。 分布式光纤声波传感系统(Distributed Acoustic Sensing,DAS)作为一种被动式、长距离、连续监测的感知技术,为无人机入侵预警提供了新的技术路径。 二、DAS 在无人机入侵监测中的基本原理 DAS 系统利用相干光时域反射原理,将普通通信光纤转化为沿线连续分布的振动与声波传感单元。当无人机在目标区域低空飞行、起降或悬停时,会在地面及周围结构中产生可被感知的物理扰动,包括: * 旋翼气流引起的地面微振动 * 无人机起降过程中的冲击与共振 * 低空飞行产生的特征性声波信号 这些信号通过光纤传导至 DAS 主机,经过高速采集与数字信号处理,可实现实时感知与精确定位。 三、无人机入侵场景下的 DAS 监测模式

OpenClaw大龙虾机器人完整安装教程

OpenClaw(大龙虾机器人)是一款本地部署的全能AI助手,可通过WhatsApp、Telegram、飞书等聊天软件实现邮件处理、日历管理、系统操作等功能,数据本地存储更隐私。本教程适配macOS/Linux/Windows系统,包含基础安装、初始化配置、聊天软件对接及常见问题解决,新手也能快速上手。 一、安装前准备 1. 系统与硬件要求 配置项最低要求推荐配置操作系统macOS 12+/Ubuntu 20.04+/Windows 10(需WSL2)macOS 14+/Ubuntu 22.04+/Windows 11内存4GB8GB+磁盘空间2GB可用10GB+ SSD核心依赖Node.js 18.0+Node.js v22 LTS最新版 2. 必备前置资源 * AI模型API Key:Claude、GPT-4/

Qwen3-ForcedAligner-0.6B部署详解:端口7860(WebUI)与7862(API)分工说明

Qwen3-ForcedAligner-0.6B部署详解:端口7860(WebUI)与7862(API)分工说明 1. 模型概述与核心价值 Qwen3-ForcedAligner-0.6B是阿里巴巴通义实验室推出的音文强制对齐模型,基于0.6B参数的Qwen2.5架构构建。这个模型的核心功能不是语音识别,而是将已知的参考文本与音频波形进行精确匹配,输出每个词语的精确时间戳。 模型的核心特点: * 精准对齐:采用CTC前向后向算法,时间精度达到±0.02秒 * 离线运行:模型权重预置在镜像中,无需外网连接即可工作 * 数据安全:所有处理在本地完成,音频和文本数据不会外传 * 多语言支持:支持中文、英文、日文、韩文等52种语言 与传统的语音识别模型不同,ForcedAligner需要你提供与音频内容完全一致的文本,然后它会告诉你每个词在音频中的具体开始和结束时间。这对于字幕制作、语音编辑等场景特别有用。 2. 环境部署与快速启动 2.1 镜像部署步骤 部署Qwen3-ForcedAligner-0.6B非常简单,只需要几个步骤: 1. 选择镜像:在平台镜像市