人工智能、机器学习和深度学习,其实不是一回事

人工智能、机器学习和深度学习,其实不是一回事

一、人工智能、机器学习与深度学习的真正区别

在当今科技领域,我们经常听到人工智能、机器学习和深度学习这三个词。它们虽然相关,但含义不同。

1.1 人工智能

人工智能是计算机科学的一个分支,旨在研究如何合成与分析能够像人一样行动的计算主体。简单来说,AI 的目标是利用计算机来模拟甚至替代人类大脑的功能。

一个理想的 AI 系统通常具备以下特征:像人一样思考像人一样行动理性地思考与行动

在这里插入图片描述

1.2 机器学习

机器学习是实现人工智能的一种途径。它的核心定义是:赋予计算机在没有被显式编程的情况下进行学习的能力。

与传统的基于规则的编程不同,机器学习不依赖程序员手写每一条逻辑指令,而是通过算法让机器从大量数据中寻找规律,从而对新的数据产生预测或判断。

在这里插入图片描述

1.3 深度学习

深度学习是机器学习的一种特殊方法,也称为深度神经网络。它受人类大脑结构的启发,通过设计多层的神经元网络结构,来模拟万事万物的特征表示。

在这里插入图片描述

1.4 三者之间的层级关系

厘清这三者的关系对于初学者至关重要。人工智能 AI是最宏大的概念,包含了所有让机器变聪明的技术。机器学习 ML是 AI 的一个子集,是实现 AI 的目前最主流的方法。深度学习 DL又是 ML 的一个子集,是 ML 中利用深层神经网络进行学习的技术流派。

在这里插入图片描述

二、机器究竟是如何学习的

为了更好地理解机器学习,我们需要对比传统的解决问题方式与机器学习方式的区别。

2.1 规则驱动的传统编程方式

在传统编程模式下,程序员基本上就是规则的制定者。所有逻辑都要提前想清楚,然后用if-else这样的判断语句一条条写进去。

比如做图像判断时,程序往往只能依赖显式条件去推断结果

识别到轮子而且是圆形 → 可能是车
识别到车窗 → 可能是车
再叠加更多结构特征

问题很快就会暴露出来。

当问题边界清晰时,比如税务计算,这种方式非常高效。但面对复杂场景,例如图像识别自然语言处理,规则会迅速膨胀

现实世界没有固定模板。同一个目标在不同光照、角度、遮挡情况下都会发生巨大变化。想靠穷举条件覆盖所有情况,几乎不现实。

规则可以不断增加,但复杂度增长的速度,远远快于系统可维护的程度。

在这里插入图片描述

2.2 模型驱动的机器学习方式

机器学习采用的是归纳法。我们不直接编写规则,而是提供大量的历史数据,让机器通过算法去训练一个模型

案例:房价预测
假设我们有一组房屋面积与销售价格的数据:

123$m^2$ ->250万 150$m^2$ ->320万 ... 

我们可以假设房价与面积之间存在线性关系,即模型为 y = a x + b y = ax + b y=ax+b。

$y$ 是房价,$x$ 是面积。 $a$(斜率)和 $b$(截距)是我们需要求解的参数。 

机器学习的过程,就是通过历史数据找到最合适的 a a a 和 b b b,使得这条直线尽可能拟合所有数据点。一旦确定了参数,当输入一个新的面积 x x x 时,模型就能预测出房价 y y y。

在这里插入图片描述

三、人工智能的发展与现实应用

3.1 机器学习已经渗透的领域

如今,机器学习已经渗透到我们生活的方方面面

用户分析:社交网络画像、商品评论情感分析。搜索引擎:搜索结果排序、以图搜图。推荐系统:抖音/B站的视频推荐、淘宝的商品推荐。计算机视觉:人脸识别闸机、自动驾驶车辆检测、医疗影像诊断。AIGC:机器翻译、ChatGPT文本生成、Midjourney绘图。

3.2 三次浪潮:人工智能的发展阶段

人工智能并非新生事物,其发展经历了三次主要浪潮:

第一阶段(1950-1970年代):符号主义。以1956年达特茅斯会议提出人工智能术语为起点。代表事件是IBM的跳棋程序战胜人类。
第二阶段(1980-2000年代):统计主义。统计模型开始解决实际问题。代表事件是1997年IBM深蓝战胜国际象棋冠军卡斯帕罗夫。
第三阶段(2010年至今):深度学习。随着算力提升,神经网络复兴。2016年AlphaGo战胜李世石是标志性事件。2022年ChatGPT的出现标志着大模型时代的到来。

在这里插入图片描述

3.3 AI 爆发背后的三大基础

为什么 AI 在近年来才爆发?因为三大基石的共同作用。

1.数据:互联网时代产生了海量数据,为模型提供了燃料。
2.算法:深度学习算法的突破。
3.算力:硬件的飞跃。

CPU:适合逻辑控制和I/O操作。
GPU:擅长大规模矩阵运算,是训练神经网络的主力。
TPU:Google专门为张量计算设计的处理器。
在这里插入图片描述

四、机器学习常见术语

1.样本
一行数据就是一个样本。
它代表现实世界中的一个实体或一条记录。多个样本组成了数据集

2.特征
数据表中的列(通常是除去最后一列)
特征是从数据中抽取出来的、对预测结果有用的属性信息。

3.标签/目标值
模型要预测的那一列数据。
这是模型学习的最终答案。

4.数据集划分
为了验证模型的有效性,我们不能用所有数据来训练。通常将数据集按比例(如 8:2 或 7:3)划分为两部分:

训练集:用于让模型学习规律,建立模型。
测试集:用于评估模型表现。
在这里插入图片描述

最后,当我们把人工智能机器学习深度学习放回各自的位置,很多问题其实就变得清晰了。AI 是目标, 机器学习是路径, 深度学习是其中的一种实现方式。理解层级,比记住名词更重要。

日期:2025年2月24日
专栏:机器学习

Read more

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

前言 我司内部在让机器人做一些行走-操作任务时,不可避免的需要全身遥操机器人采集一些任务数据,而对于全身摇操控制,目前看起来效果比较好的,并不多 * 之前有个CLONE(之前本博客内也解读过),但他们尚未完全开源 * 于此,便关注到了本文要解读的TWIST2,其核心创新是:无动捕下的全身控制 PS,如果你也在做loco-mani相关的工作,欢迎私我你的一两句简介,邀你加入『七月:人形loco-mani(行走-操作)』交流群 第一部分 TWIST2:可扩展、可移植且全面的人形数据采集系统 1.1 引言与相关工作 1.1.1 引言 如TWIST2原论文所说,现有的人形机器人远程操作系统主要分为三大类: 全身控制,直接跟踪人体姿态,包括手臂、躯干和腿部在内的所有关节以统一方式进行控制(如 HumanPlus [12],TWIST [1] ———— TWIST的介绍详见此文《TWIST——基于动捕的全身遥操模仿学习:教师策略RL训练,学生策略结合RL和BC联合优化(可训练搬箱子)》 部分全身控制,

Ubuntu搭建PX4无人机仿真环境(5) —— 仿真环境搭建(以Ubuntu 22.04,ROS2 Humble,Micro XRCE-DDS Agent为例)

Ubuntu搭建PX4无人机仿真环境(5) —— 仿真环境搭建(以Ubuntu 22.04,ROS2 Humble,Micro XRCE-DDS Agent为例)

目录 * 前言 * 1. 准备 * 1.1 下载 PX4 源码 * 方式一: * 方式二: * 1.2 安装仿真依赖 * 1.3 安装 Gazebo * 2. 安装 Micro XRCE-DDS Agent * 3. 编译 PX4 * 4. 通信测试 * 5. 官方 offboard 程序 * 6. offboard 测试 * 参考 前言 本教程基于 ROS2 ,在搭建之前,需要把 ROS2、QGC 等基础环境安装配置完成。但是这块的资料相比较于 ROS1 下的少很多,不利于快速上手和后期开发,小白慎选! 小白必看:

基于Matlab/Simulink平台的FPGA开发

基于Matlab/Simulink平台的FPGA开发

基于 Matlab/Simulink 平台进行 FPGA 开发是一种高效的 "算法驱动" 设计方法,尤其适合从算法原型到硬件实现的快速迭代,广泛应用于电力电子、通信、控制、图像处理等领域。其核心优势在于通过可视化建模和自动代码生成,减少手动编写 HDL(硬件描述语言)的工作量,同时保证算法与硬件实现的一致性。 一、FPGA建模与仿真 基于Simulink建模:使用Simulink搭建算法模型(如信号处理、控制系统等),通过仿真验证功能正确性。 定点化处理:通过Fixed-Point Designer工具将浮点算法转换为定点模型,优化硬件资源占用。 仿真验证:通过 Simulink 仿真验证模型功能正确性,重点测试边界条件和异常场景,确保算法逻辑无误。 二、FPGA代码生成 HDL Coder 是 MathWorks 公司推出的一款核心工具,主要用于将 MATLAB 算法和 Simulink 模型自动转换为可综合的硬件描述语言(