人工智能、机器学习和深度学习,其实不是一回事

人工智能、机器学习和深度学习,其实不是一回事

一、人工智能、机器学习与深度学习的真正区别

在当今科技领域,我们经常听到人工智能、机器学习和深度学习这三个词。它们虽然相关,但含义不同。

1.1 人工智能

人工智能是计算机科学的一个分支,旨在研究如何合成与分析能够像人一样行动的计算主体。简单来说,AI 的目标是利用计算机来模拟甚至替代人类大脑的功能。

一个理想的 AI 系统通常具备以下特征:像人一样思考像人一样行动理性地思考与行动

在这里插入图片描述

1.2 机器学习

机器学习是实现人工智能的一种途径。它的核心定义是:赋予计算机在没有被显式编程的情况下进行学习的能力。

与传统的基于规则的编程不同,机器学习不依赖程序员手写每一条逻辑指令,而是通过算法让机器从大量数据中寻找规律,从而对新的数据产生预测或判断。

在这里插入图片描述

1.3 深度学习

深度学习是机器学习的一种特殊方法,也称为深度神经网络。它受人类大脑结构的启发,通过设计多层的神经元网络结构,来模拟万事万物的特征表示。

在这里插入图片描述

1.4 三者之间的层级关系

厘清这三者的关系对于初学者至关重要。人工智能 AI是最宏大的概念,包含了所有让机器变聪明的技术。机器学习 ML是 AI 的一个子集,是实现 AI 的目前最主流的方法。深度学习 DL又是 ML 的一个子集,是 ML 中利用深层神经网络进行学习的技术流派。

在这里插入图片描述

二、机器究竟是如何学习的

为了更好地理解机器学习,我们需要对比传统的解决问题方式与机器学习方式的区别。

2.1 规则驱动的传统编程方式

在传统编程模式下,程序员基本上就是规则的制定者。所有逻辑都要提前想清楚,然后用if-else这样的判断语句一条条写进去。

比如做图像判断时,程序往往只能依赖显式条件去推断结果

识别到轮子而且是圆形 → 可能是车
识别到车窗 → 可能是车
再叠加更多结构特征

问题很快就会暴露出来。

当问题边界清晰时,比如税务计算,这种方式非常高效。但面对复杂场景,例如图像识别自然语言处理,规则会迅速膨胀

现实世界没有固定模板。同一个目标在不同光照、角度、遮挡情况下都会发生巨大变化。想靠穷举条件覆盖所有情况,几乎不现实。

规则可以不断增加,但复杂度增长的速度,远远快于系统可维护的程度。

在这里插入图片描述

2.2 模型驱动的机器学习方式

机器学习采用的是归纳法。我们不直接编写规则,而是提供大量的历史数据,让机器通过算法去训练一个模型

案例:房价预测
假设我们有一组房屋面积与销售价格的数据:

123$m^2$ ->250万 150$m^2$ ->320万 ... 

我们可以假设房价与面积之间存在线性关系,即模型为 y = a x + b y = ax + b y=ax+b。

$y$ 是房价,$x$ 是面积。 $a$(斜率)和 $b$(截距)是我们需要求解的参数。 

机器学习的过程,就是通过历史数据找到最合适的 a a a 和 b b b,使得这条直线尽可能拟合所有数据点。一旦确定了参数,当输入一个新的面积 x x x 时,模型就能预测出房价 y y y。

在这里插入图片描述

三、人工智能的发展与现实应用

3.1 机器学习已经渗透的领域

如今,机器学习已经渗透到我们生活的方方面面

用户分析:社交网络画像、商品评论情感分析。搜索引擎:搜索结果排序、以图搜图。推荐系统:抖音/B站的视频推荐、淘宝的商品推荐。计算机视觉:人脸识别闸机、自动驾驶车辆检测、医疗影像诊断。AIGC:机器翻译、ChatGPT文本生成、Midjourney绘图。

3.2 三次浪潮:人工智能的发展阶段

人工智能并非新生事物,其发展经历了三次主要浪潮:

第一阶段(1950-1970年代):符号主义。以1956年达特茅斯会议提出人工智能术语为起点。代表事件是IBM的跳棋程序战胜人类。
第二阶段(1980-2000年代):统计主义。统计模型开始解决实际问题。代表事件是1997年IBM深蓝战胜国际象棋冠军卡斯帕罗夫。
第三阶段(2010年至今):深度学习。随着算力提升,神经网络复兴。2016年AlphaGo战胜李世石是标志性事件。2022年ChatGPT的出现标志着大模型时代的到来。

在这里插入图片描述

3.3 AI 爆发背后的三大基础

为什么 AI 在近年来才爆发?因为三大基石的共同作用。

1.数据:互联网时代产生了海量数据,为模型提供了燃料。
2.算法:深度学习算法的突破。
3.算力:硬件的飞跃。

CPU:适合逻辑控制和I/O操作。
GPU:擅长大规模矩阵运算,是训练神经网络的主力。
TPU:Google专门为张量计算设计的处理器。
在这里插入图片描述

四、机器学习常见术语

1.样本
一行数据就是一个样本。
它代表现实世界中的一个实体或一条记录。多个样本组成了数据集

2.特征
数据表中的列(通常是除去最后一列)
特征是从数据中抽取出来的、对预测结果有用的属性信息。

3.标签/目标值
模型要预测的那一列数据。
这是模型学习的最终答案。

4.数据集划分
为了验证模型的有效性,我们不能用所有数据来训练。通常将数据集按比例(如 8:2 或 7:3)划分为两部分:

训练集:用于让模型学习规律,建立模型。
测试集:用于评估模型表现。
在这里插入图片描述

最后,当我们把人工智能机器学习深度学习放回各自的位置,很多问题其实就变得清晰了。AI 是目标, 机器学习是路径, 深度学习是其中的一种实现方式。理解层级,比记住名词更重要。

日期:2025年2月24日
专栏:机器学习

Read more

收藏级|小白也能上手!用魔搭+LLaMA Factory手把手实操大模型微调全流程

收藏级|小白也能上手!用魔搭+LLaMA Factory手把手实操大模型微调全流程

本文用「教育孩子」类比「训练AI」的通俗方式,拆解大模型微调的完整流程,全程基于魔搭平台和LLaMA Factory工具,从环境搭建、模型下载、数据准备,到模型训练、本地测试、模型导出,每一步都附具体操作和代码,无多余冗余。无论是零基础小白,还是刚接触大模型的程序员,都能跟着步骤一步步实操,轻松吃透预训练、微调和RLHF三大核心阶段,成功训练出属于自己的第一个大模型,建议收藏备用,实操时直接对照步骤走! 1、先搞懂:什么是大模型「微调」? 在动手实操前,我们先花2分钟搞懂核心概念——微调。常规大语言模型的训练,就像培养一个孩子,整体分为3个关键阶段,一张图就能看明白: 用「养娃」做类比,小白也能秒懂三个阶段的区别,建议记好这个类比,后续理解流程更轻松: 1. 预训练(对应孩子的「通识教育」) * 模型层面:通过自监督学习,读取海量文本数据,掌握基础的语言规则、词汇逻辑,

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用 1.在Vscode的settings中搜索Extension Kind,如图所示: 2.点击Edit in settings.json,添加如下代码: "remote.extensionKind":{"GitHub.copilot":["ui"],"GitHub.copilot-chat":["ui"],} remote.extensionKind 的作用 这是 VS Code 的远程开发配置项,用于控制扩展在远程环境(如 SSH、容器、WSL)中的运行位置。可选值: “ui”:扩展在本地客户端运行 “workspace”:扩展在远程服务器运行 这两个扩展始终在 本地客户端运行,

如何用50张图片训练专属AI绘画风格?lora-scripts实操教程

如何用50张图片训练专属AI绘画风格?LoRA-Scripts实操教程 在数字创作的世界里,个性化正成为新的生产力。你有没有想过,只需50张图、一块消费级显卡,就能让 Stable Diffusion 学会你的独特画风?这不再是实验室里的幻想——借助 LoRA 技术和自动化工具链,普通创作者也能完成过去只有大公司才能做到的模型定制。 这一切的核心,是一种叫 LoRA(Low-Rank Adaptation) 的轻量微调方法。它不像传统方式那样“重写”整个模型,而是像给大模型戴上一副定制眼镜:原模型不动,只加一点小参数,就能让它“看”出不同的风格。而 lora-scripts 正是把这个过程封装成一键操作的利器,把复杂的训练流程变成了配置文件+命令行的简单组合。 从一张图开始:为什么LoRA改变了游戏规则? 早年的 AIGC 微调,动辄需要全模型训练,几十GB显存起步,还得跑上几天几夜。DreamBooth 虽然能实现身份绑定,但资源消耗依然惊人,且容易过拟合。对于只想训练一种画风、一个角色或一套品牌视觉的用户来说,

OpenAI Whisper:生态

OpenAI Whisper:生态

概述 在语音转文本ASR工具合集介绍ASR基础概念,汇总几款语音识别模型和项目,其中就包括OpenAI开源的Whisper。OpenAI Whisper则是技术原理和实战。 围绕Whisper有着非常庞大的生态,本文试图介绍几个,不够深入。 whisper.cpp Whisper模型的开源(GitHub,44.5K Star,4.9K Fork)C++实现版本,核心优势: * 几乎无依赖:最大亮点,不同于其他需通过pip安装一大堆Python库的项目,whisper.cpp几乎没有依赖; * 性能卓越:C++原生性能优势,转录速度非常快,资源占用也相对较低; * 跨平台与硬件支持:支持多种硬件加速,从主流的NVIDIA(CUDA)、AMD(OpenCL)显卡,到苹果的Metal框架,甚至是专用NPU,都能利用起来进一步提速; * 部署简单:可以直接下载官方编译好的可执行文件,解压即用,整个程序包非常小巧。 实战 HF模型地址。 模型名称文件大小推荐场景ggml-small.bin~