黄仁勋公开发文:传统软件开发模式终结,参与AI不必非得拥有计算机博士学位

黄仁勋公开发文:传统软件开发模式终结,参与AI不必非得拥有计算机博士学位

AI 究竟是什么?在 NVIDIA CEO 黄仁勋看来,它早已不只是聊天机器人或某个大模型,而是一种正在迅速成形的“新型基础设施”。

近日,黄仁勋在英伟达官网发布了一篇长文,提出一个颇具形象的比喻——AI 就像一块“五层蛋糕”。从最底层的能源,到芯片、基础设施、模型,再到最上层的应用,人工智能正在形成一整套完整的产业技术栈,并像电力和互联网一样,逐渐成为现代社会的底层能力。

这也是黄仁勋自 2016 年以来公开发表的第七篇长文。在这篇文章中,他从计算机发展史与第一性原理出发,试图解释 AI 技术栈为何会演化成如今的形态,以及为什么全球正在掀起一场规模空前的 AI 基础设施建设。

在他看来,过去几十年的软件大多是预先编写好的程序:人类设计好算法,计算机按指令执行,数据被结构化存储在数据库中,通过精确查询调用。而 AI 的出现打破了这一模式——计算机开始能够理解图像、文本和声音,并根据上下文实时生成答案、推理结果甚至新的内容。

正因为智能不再是预先写好的代码,而是实时生成的能力,支撑它运行的整个计算体系也必须被重新设计。从能源供应、芯片架构到数据中心建设,AI 正在推动一轮规模空前的基础设施建设。

不过,黄仁勋也提醒,这场变革仍处于早期阶段:大量基础设施尚未建成,大量人才尚未完成培训,大量机会也尚未被真正释放。

来源:https://blogs.nvidia.cn/blog/ai-5-layer-cake/

编译 | 苏宓

出品 | ZEEKLOG(ID:ZEEKLOGnews)

以下为黄仁勋分享全文:

AI 是当今塑造世界最强大的力量之一。它并非仅仅是一款巧妙的应用程序,也不是某个单一的模型,而是一种就像电力和互联网一样的基础设施。

AI 依赖真实的硬件、真实的能源以及真实的经济体系运行。它可以把原材料大规模地转化为智能。未来,每家公司都会使用 AI,每个国家/地区都会建设 AI。

要理解 AI 为什么会以这样的方式发展,最好的方法是从第一性原理出发,看看计算领域究竟发生了哪些根本性的变化。

从预先编写的软件,到实时生成的智能

在计算机发展的绝大多数历史中,软件都是预先写好的。人类先描述算法,然后由计算机执行。数据必须被精心组织与设计,存储在表格中,再通过精确的查询进行检索。

因此,SQL 成为不可或缺的工具,因为它让这种计算模式变得可行。

而 AI 打破了这一模式。

我们首次拥有了一台能够理解非结构化信息的计算机。它可以识别图像、阅读文本、理解声音,并理解其中的含义。它能够根据上下文和意图进行推理。更重要的是,它能够实时生成智能。

每一次回答都是全新的。每一次回应都取决于你提供的上下文。这不再是软件从数据库中取出预先存储的指令。而是软件在实时推理,并按需生成智能。

正因为智能是实时产生的,支撑它的整个计算技术栈也必须被重新设计。

AI 即基础设施

如果从工业视角看 AI,它可以被拆分为一个五层技术栈。

第一层:能源

最底层是能源。实时生成智能需要实时提供电力。每一个生成的 token,本质上都是电子在流动、热量被管理、能源被转化为计算能力的结果。

在这一层之下,没有任何抽象。能源是 AI 基础设施的第一性原理,也是决定系统能产生多少智能的硬性约束。

第二层:芯片

能源之上是芯片。芯片是专门设计的处理器,用于高效地把能源转化为计算能力,并且能够在极大规模下运行。AI 工作负载需要极高的并行度、高带宽内存以及高速互联。芯片层的进步,决定了 AI 扩展的速度,也决定了智能的成本能降低到什么程度。

第三层:基础设施

芯片之上是基础设施。这一层包括土地、电力输送、散热系统、建筑、网络,以及能够把数万颗处理器组织成一台机器的系统。这些系统本质上是AI 工厂。

它们的设计目标不是存储信息,而是制造智能。

第四层:模型

基础设施之上是模型。

AI 模型能够理解多种类型的信息:语言、生物、化学、物理、金融、医学,以及现实世界本身。语言模型只是其中的一类。目前最具变革性的进展,很多发生在以下领域,包括蛋白质 AI、化学 AI、物理仿真、机器人、自动驾驶系统。

第五层:应用

最顶层是应用,也是创造经济价值的地方。例如:药物研发平台、工业机器人、法律助手、自动驾驶汽车。一辆自动驾驶汽车,本质上是嵌入在机器中的 AI 应用。一台人形机器人,则是嵌入在身体中的 AI 应用。底层技术栈相同,但最终形态不同。

这就是 AI 的五层蛋糕结构:能源 → 芯片 → 基础设施 → 模型 → 应用。

每一个成功的应用,都会拉动下方的每一层需求,一直延伸到为整个系统提供电力的发电厂。

AI 的建设才刚刚开始。目前的投入规模只有几千亿美元,而未来仍需要建设数万亿美元的基础设施。

在全球范围内,我们正在看到,芯片工厂、计算机组装工厂和 AI 工厂以前所未有的规模建设。这正在成为人类历史上最大的基础设施建设之一。

支撑这场建设所需要的劳动力规模非常庞大。AI 工厂需要电工、管道工、管线安装工、钢结构工人、网络技术人员、安装人员和运维人员等。

这些都是技能型、高收入的工作岗位,而且目前供不应求。参与这场变革,并不需要计算机科学博士学位。

与此同时,AI 也在推动知识经济的生产力提升。以放射学为例。AI 现在已经可以帮助医生读取医学影像,但放射科医生的需求仍在持续增长。这并非矛盾现象。

放射科医生的使命是照顾患者,而解读扫描影像只是其中的一项任务。

当 AI 承担更多重复性工作时,医生可以把时间用于判断、沟通和患者护理。医院的效率因此提升,能够服务更多患者,也需要雇佣更多人员。

生产力提升会带来更多能力,而能力会带来增长。

过去一年发生了什么变化

在过去一年里,AI 跨越了一个重要门槛——模型性能显著提升,可以在大规模场景中真正发挥作用。推理能力提高了,幻觉显著减少,落地应用能力大幅提升。基于 AI 构建的应用首次开始创造真实的经济价值。

药物研发、物流、客户服务、软件开发和制造业领域的应用已经展现出强大的产品市场契合度。这些应用正在强烈拉动底层技术栈的需求。

开源模型在这一过程中发挥着关键作用。全球绝大多数模型都是免费开放的。研究人员、初创公司、企业,甚至整个国家,都依赖开源模型参与先进 AI 的发展。

当开源模型达到前沿水平时,它们带来的变化不仅发生在软件领域,还会激活整个技术栈的需求。

DeepSeek-R1 就是一个很好例子。当一个强大的推理模型被广泛开放时,它会加速应用层的采用,并带动了底层对训练、基础设施、芯片和能源的需求增长。

这意味着什么

如果把 AI 看作一种基础设施,其影响就会变得非常清晰。

AI 始于 Transformer 架构的 LLM,但其意义远不止于此。这是一场工业级的变革,正在重塑能源生产与消费方式、工厂的建造模式、工作的组织形式以及经济的增长路径。

如今,AI 工厂正在兴建,是因为智能现在是实时生成的。芯片之所以被重新设计,是因为效率决定了智能扩展的速度。能源变得至关重要,因为它决定了智能产出的上限。而应用层正在加速发展,是因为底层模型已经跨越了真正可用的门槛。

每一层都会强化其他层的发展。

这就是为什么 AI 基础设施的建设规模如此庞大,这也是为什么它会同时影响如此多的行业。AI 不会局限于某个国家或某个行业。每家公司都会使用 AI。每个国家都会建设 AI。

我们仍然处于早期阶段。大量基础设施尚未建设、大量人才尚未培训、大量机会尚未被实现。

但方向已经非常清晰。

人工智能正在成为现代世界的基础性基础设施。而我们现在做出的选择、构建速度、参与广度以及如何负责任地部署 AI,都将决定这个时代最终会变成什么样子。

推荐阅读:

一天开13个会、一个Bug要修200天!前亚马逊L7爆料:这轮大裁员,AI只是“背锅侠”

为省5-10美元差点毁库!Claude一条指令删光200万条数据、网站停摆24小时,创始人坦言:全是我的错

全球26w+用户在线「养虾」:OpenClaw这一波泼天流量,到底让谁接住了?

未来没有前后端,只有 AI Agent 工程师。

这场十倍速的变革已至,你的下一步在哪?

4 月 17-18 日,由 ZEEKLOG 与奇点智能研究院联合主办「2026 奇点智能技术大会」将在上海隆重召开,大会聚焦 Agent 系统、世界模型、AI 原生研发等 12 大前沿专题,为你绘制通往未来的认知地图。

成为时代的见证者,更要成为时代的先行者。

奇点智能技术大会上海站,我们不见不散!

Read more

【Linux】TCP协议【2】: 从 echo 到远程命令执行:Linux TCP 服务器的并发与安全实践

【Linux】TCP协议【2】: 从 echo 到远程命令执行:Linux TCP 服务器的并发与安全实践

作为后端开发的核心技能,Linux 下的 TCP 服务器开发是绕不开的知识点。本文将从基础的 socket 编程入手,一步步实现 echo 服务器,并通过多进程、多线程、线程池优化并发能力,最后扩展到远程命令执行场景并补充安全防护方案,全程以实战代码和核心问题为核心展开。 一、基础篇:实现一个能跑的 echo 服务器 echo 服务器的核心逻辑很简单 —— 客户端发什么,服务器就返回什么。这一步我们先搞定基础的 socket 编程流程,以及开发中最容易踩的绑定、连接问题。 1.1 先解决两个核心问题:绑定与连接 在编写服务器代码前,先理清两个高频问题:bind绑定和connect连接参数。 服务器端调用bind函数时,核心是绑定 IP 和端口: * 如果绑定0.0.0.0,表示监听服务器所有网卡的该端口,这是服务器的常规操作; * 如果绑定具体 IP(如192.

By Ne0inhk
告别繁琐配置!用 Trae Remote-SSH 轻松远程开发和部署

告别繁琐配置!用 Trae Remote-SSH 轻松远程开发和部署

目录 * 开发者的痛点:本地环境 VS 远程环境的开发难题 * Trae 国内版上新功能了 * Trae Remote-SSH 解决方案 * Trae Remote-SSH 运行原理 * 设备要求 * 步骤 1:打开远程资源管理器 * 步骤 2:连接远程主机 * 步骤 3:打开远程文件夹,开始开发 * 实践 通过trae远程开发 贪吃蛇 项目 * 前置条件 * 连接远程主机 * 通过本地trae远程编码 * 远程调试 * 自定义模型接入能力 * 1.点击添加模型选项 * 2.模型配置 * 3.丝滑使用自定义模型 * AI 助力远程开发 * 1.全自然语言项目初始化 * 2.智能编码全流程演示 * 3.混合编程模式进阶 * 4.远程部署一体化 * 5.

By Ne0inhk

Flutter 三方库 performance_timer 的鸿蒙化适配指南 - 实现毫秒级性能剖析、支持嵌套计时与自动化性能报告输出

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 performance_timer 的鸿蒙化适配指南 - 实现毫秒级性能剖析、支持嵌套计时与自动化性能报告输出 前言 在 Flutter for OpenHarmony 的高性能调优过程中,准确识别应用中的卡顿点和耗时逻辑(Hotspots)是至关重要的。虽然可以使用鸿蒙的调试工具,但在代码层面实现轻量级的自动化性能监控往往更高效。performance_timer 是一个专为颗粒化性能评估设计的库,它能以极简洁的代码实现对业务链路的精准计时。本文将带领大家在鸿蒙端实战性能剖析。 一、原理解析 / 概念介绍 1.1 基础原理 performance_timer 封装了 Dart 的 Stopwatch,并引入了计分(Lap)和分组概念。它通过记录执行前后的纳秒级时间戳,计算差值并进行结构化汇总。 监控引擎 高精度时钟 API 时间差计算

By Ne0inhk
【Linux系列】掌控 Linux 的脉搏:深入理解进程控制

【Linux系列】掌控 Linux 的脉搏:深入理解进程控制

🫧 励志不掉头发的内向程序员:个人主页  ✨️ 个人专栏: 《C++语言》《Linux学习》 🌅偶尔悲伤,偶尔被幸福所完善 👓️博主简介: 文章目录 * 前言 * 一、进程创建 * 二、进程终止 * 2.1、进程退出场景 * 2.2、进程常见退出方法 * (1)退出码 * (2)exit 函数 * (3)_exit 函数 * (4)return 退出 * 三、进程等待 * 3.1、进程等待必要性 * 3.2、进程等待方法 * (1)wait 方法 * (2)waitpid 方法 * (3)获得子进程 status * (4)

By Ne0inhk