一、机器学习
机器学习是人工智能的核心分支,本质是通过让计算机通过数据学习规律实现自主决策、预测或模式识别。核心逻辑就是给它一串数据,通过特定的模型训练让它找到数据的内在规律对我们想要解决的问题进行一个预测。在寻找适合的模型中,我们要采取各种算法提高其准确度。
机器学习知识体系思维导图如下:

二、回归
回归的本质是拟合一条'曲线 / 平面',并尽可能让所有的数据都在这条线上,也就是误差最小,以此提高预测的精确度和可靠性。
回归流程如下:

1. 训练集与测试集
训练集和测试集作为存放数据的集合都有特征和标签,这里和平时理解的字面意义上的特征和标签不一样,我们可以分别把其简单理解为'输入'和'输出'。
特征是模型的输入信息,通常描绘了数据的各属性和维度。比如在预估房价时,房屋的面积、楼层还有地段等都是特征;在识别垃圾邮件时,发件人、邮件内容等也是特征。
标签是模型的输出目标,也就是想要得到数据的结果。可大致分为分类和回归两种类型,前者的标签指离散类别,比如是垃圾邮件/正常邮件;后者的标签则指连续的数值,比如预测的房价、销量等。
训练集作用是让模型不断学习并挖掘数据的内在规律,而测试集的作用则是用训练过的模型来对数据的结果进行一个预估,与真实值进行对比看这个模型准不准。他们俩的区别在于是否参与过模型训练。
实践中常使用验证集调节参数以防止过拟合。
2. 线性回归
线性回归是一种用于预测连续数值的统计方法,通过找到自变量(特征)与因变量(目标)之间的线性关系进行预测。基本公式为:
y = w₁x₁ + w₂x₂ + ... + wₙxₙ + b
其中,y 为预测目标;x 为特征变量;w 为系数(权重);b 为截距。
关于线性回归,重要的核心概念有三个分别是损失函数、梯度下降、评估指标。
a. 损失函数
损失函数是核心的'误差衡量工具',它量化了模型预测结果与真实值之间的差异,指导模型参数的优化方向。为什么它是核心呢,要看一个线性回归模型误差大不大其实是有很多指标的,除了直观的可视化图像之外也需要有量化的数据来计算到底'损失'了多少。
b. 梯度下降算法
通过逐步降低损失函数,找到最优解。是线性回归中用来最小化损失函数的核心优化算法。批量梯度下降(BGD)是最基础的形式,每次迭代都使用全部训练样本计算梯度。
1. BGD
- 计算损失函数每个参数的梯度/偏导,更新参数
- 每次更新步长由学习率决定(过大会导致震荡不收敛,过小会导致收敛过慢)

更新公式:

























