《Science》观点解读:AI无法创造真正的智能体(AI Agent)

《Science》观点解读:AI无法创造真正的智能体(AI Agent)

         无论是想要学习人工智能当做主业营收,还是像我一样作为开发工程师但依然要运用这个颠覆开发的时代宠儿,都有必要了解、学习一下人工智能。

        近期发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,入行门槛低,讲解极为丰富。

         点击跳转前言 – 人工智能教程

目录

《Science》观点解读:AI无法创造真正的智能体(AI Agent)

前言

一、大模型的"超能力"从何而来?

1、如何理解大模型的核心运作逻辑

2、大模型的文化技术本质

二、为何说"超级智能体"是个伪命题?

三、结语


        作者:watermelo37

        ZEEKLOG万粉博主、华为云云享专家、阿里云专家博主、腾讯云、支付宝合作作者,全平台博客昵称watermelo37。

        一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。



---------------------------------------------------------------------

温柔地对待温柔的人,包容的三观就是最大的温柔。

---------------------------------------------------------------------

《Science》观点解读:AI无法创造真正的智能体(AI Agent)

前言

        人工智能(AI)大模型(如语言、视觉、多模态模型)的突破引发了广泛关注,一些人认为通过扩大数据与算力将催生通用人工智能(AGI)的诞生,人类也即将见证具有超级智能的智能体(agent)。

        无论是乐观的技术“鼓吹派”,还是更为担忧的“灾难担忧派”,都在广泛传递这这样一种关于 AGI 的宏大叙事。何况Manus测试刷屏的消息似乎已经打开了AI Agent的时代,真的如此吗?

        但是,最新一期的Science期刊发表了一篇题为“Large AI models are cultural and social technologies”文章,提供了一种与主流观点不同的思考角度,为这一前景泼了冷水

        来自芝加哥大学圣达菲研究所和约翰霍普金斯大学等多所顶尖机构的研究人员认为,关于大模型和 AGI 的叙事,不仅让大家误解了这些模型的本质以及它们与过去技术变革的关系,更重要的是也转移了我们对这些技术所带来真实问题和机遇的关注,让我们忽视了历史所能提供的经验和教训

一、大模型的"超能力"从何而来?

1、如何理解大模型的核心运作逻辑

        要理解这个论断,我们需要先拆解大模型的运作机制。以GPT-4、通义千问为代表的超大规模语言模型,其核心是统计学与信息压缩技术的集大成者 。它们的工作原理类似一个超级精密的"文化蒸馏器":

  • 数据吞噬阶段 :模型会"吞食"互联网上万亿级的文本数据,这些数据包含人类数千年的知识结晶,从《荷马史诗》到维基百科,从菜谱到学术论文,形成一个数字文明的"文化母体"。
  • 模式提取阶段 :通过自注意力机制(Transformer架构),模型在海量数据中捕捉词语间的概率关系,就像考古学家通过陶片拼凑古代文明图景。
  • 概率生成阶段 :当用户输入问题时,模型实际上在进行一场复杂的"文化考古",根据统计规律重组已有的知识碎片,生成看似智能的回答。

        这种机制导致两个关键特征:知识完全依赖人类输入 (无法自主创造新知识),输出本质是概率游戏 (所谓"幻觉"正是统计偏差的体现)。这与人类通过感官探索世界、建立认知模型的智能本质存在根本差异。

2、大模型的文化技术本质

        如果我们把视线拉长,会发现大模型并非横空出世的"技术异类",而是人类文化技术演进链条中的新环节:

  • 文字与印刷术 (公元前3000年-15世纪):首次实现知识跨时空传递,但受限于物理载体
  • 大众传媒 (19-20世纪):报纸、电视构建信息传播网络,但仍是单向传播
  • 互联网 (20世纪末):实现全球信息互联,但信息呈现碎片化
  • 大模型 (21世纪20年代):首次实现对全人类知识的动态压缩与重组 ,成为"文化处理中枢"

        这种演进揭示了一个规律:每次技术革命都在增强人类处理信息的"带宽" 。大模型的独特价值在于,它像一个"文化棱镜",能将杂乱无章的人类知识折射出新的认知光谱。例如,当用户询问"如何向孩子解释量子力学",模型会自动调用物理学、教育学、儿童心理学等跨领域知识,重组出适合不同年龄段的解释方案——这本质上是人类集体智慧的"增强回放"。

二、为何说"超级智能体"是个伪命题?

        当前关于AGI的狂热想象,往往混淆了工具智能 主体智能 的本质区别:

维度

大模型(工具智能)

人类/假设中的AGI(主体智能)

知识来源

完全依赖训练数据

可自主探索环境获取新知识

认知方式

统计关联(相关性)

因果推理(因果性)

目标设定

由人类指令驱动

自主生成目标

适应能力

需重新训练适应新场景

动态调整应对未知挑战

能源消耗

依赖外部算力供给

自主能量获取

        这种根本差异决定了大模型更像是文明的"外脑" ,而非独立智能体。就像蒸汽机放大了人类体力但不会自主行动,大模型扩展了人类认知边界,但其"智能"始终是人类智能的投影。

        最关键的地方在于,大模型很难做到动态监测外界的变化,并且它的产出能力高度依赖数据的质量。

        原先网络上存在争议的:大模型无法取代作家,无法取代画家等“需要创造力的工作”的论调。这种粗暴的结论注定会被证否。因为艺术本身是可以被定义的,非结构化数据也是能被结构化处理后输送给大模型的,只是那些否定的人无法界定艺术,所以他们将其称之为“创造力”,并不是艺术本身无法被界定——不然还要学什么写作,学什么绘画,学点基本功直接去“感悟生活,感悟创造力”不就行了吗?

        但是AI Agent不同,他需要实时感受外界的变化,举个例子,我通过xx平台去订机票,现在的策略被大模型学习,形成了规范化范式操作,那如果xx平台系统维护了呢?出bug了呢?或者直接更新迭代了呢?大模型如何及时感受到这种动态的变化?哪怕是人脑都可能无法判断出新的操作流程是什么,AI Agent又要如何实现呢?

        有人要说了,不能通过实时检索实现动态数据的补充吗?

        不能,数据质量差+黑盒产出,这样情况下的效能你敢让大模型帮你做“代理”?万一一张机票把你送到缅甸去怎么办?

        要知道,人工智能是对人脑的模拟,它的思维和判断能力不比人脑强,要是把网络上的数据资料全部灌输给你,大模型就弱爆了。

三、结语

        未来或许可能出现更接近智能 agent 的 AI 系统,我们可以讨论如何应对这些假设的 AI 系统,但大模型并非这样的系统,它们更像印刷术、图书馆目录或互联网技术一样,是人类文化与社会技术发展长河中的一部分。

        站在文明演进的长河中看,大模型既不是通往超级智能的阶梯,也不是洪水猛兽。它更像是人类发明的"文化望远镜",让我们得以窥见集体智慧的浩瀚星空,同时也暴露出认知的局限与偏见。当我们将这些技术视为"文明的镜像"而非"智能的化身",或许能更清醒地驾驭这场变革——不是恐惧机器超越人类,而是警惕人类在技术狂热中迷失自我。正如印刷术催生了启蒙运动,互联网重塑了信息社会,大模型正在开启新的文明篇章,而这次变革的深度与广度,最终取决于我们能否以智慧驾驭智慧,用光明照亮前路。

         只有锻炼思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~

        参考资料:

        [1]Large AI models are cultural and social technologies:www.science.org/doi/10.1126/science.adt9819

        [2]微信公众号“学术头条”:https://mp.weixin.qq.com/s/HzD3RaPwtmv0UdLuIM6wtA

        其他热门文章,请关注:

        极致的灵活度满足工程美学:用Vue Flow绘制一个完美流程图

        你真的会使用Vue3的onMounted钩子函数吗?Vue3中onMounted的用法详解

        DeepSeek:全栈开发者视角下的AI革命者

        通过array.filter()实现数组的数据筛选、数据清洗和链式调用

        通过Array.sort() 实现多字段排序、排序稳定性、随机排序洗牌算法、优化排序性能

        通过MongoDB Atlas 实现语义搜索与 RAG——迈向AI的搜索机制

        TreeSize:免费的磁盘清理与管理神器,解决C盘爆满的燃眉之急

        深入理解 JavaScript 中的 Array.find() 方法:原理、性能优势与实用案例详解

        el-table实现动态数据的实时排序,一篇文章讲清楚elementui的表格排序功能

        MutationObserver详解+案例——深入理解 JavaScript 中的 MutationObserver

        Dockerfile全面指南:从基础到进阶,掌握容器化构建的核心工具

        在线编程实现!如何在Java后端通过DockerClient操作Docker生成python环境

        干货含源码!如何用Java后端操作Docker(命令行篇)

Read more

3步彻底解决SubtitleEdit Purfview Faster Whisper XXL引擎安装失败

SubtitleEdit作为一款专业的字幕编辑工具,其Purfview Faster Whisper XXL语音识别引擎能够大幅提升字幕制作效率。然而,在实际使用过程中,许多用户会遇到引擎安装失败的问题,导致整个字幕工作流程中断。本文将提供完整的故障诊断和解决方案,帮助您快速恢复语音识别功能。 【免费下载链接】subtitleeditthe subtitle editor :) 项目地址: https://gitcode.com/gh_mirrors/su/subtitleedit 问题诊断与故障分析 在开始修复之前,首先需要准确识别问题的根源。SubtitleEdit Purfview Faster Whisper XXL引擎安装失败通常表现为以下几种典型症状: * 进度条停滞:自动安装过程卡在40%-60%区间 * 解压错误:系统提示"CRC校验失败"或"文件损坏" * 权限不足:特别是在Linux系统中,安装到系统目录时出现权限拒绝 * 网络中断:大文件下载过程中因网络不稳定导致安装失败 常见故障原因排查表

【如何使用vscode+github copilot会更加省额度】

【如何使用vscode+github copilot会更加省额度】

这是一份为您定制的 VS Code + GitHub Copilot ($100/年个人版) 深度使用与省流指南。 如果您目前订阅的是 100美元/年(约10美元/月)的 GitHub Copilot Individual (现通常称为 Pro 版),虽然基础代码补全通常是无限制的,但在使用高级大模型(Premium Models,如 Claude 3.5/4.5 Sonnet, GPT-4o 等)进行对话 (Chat) 时,是存在“高级请求额度 (Premium Requests Limit)”或动态计算系统的。一旦超标,要么会被限速,要么只能降级使用基础模型。 以下是详细的收费标准说明与极端的“省流”实操指南。 📘 GitHub Copilot

避坑指南:Llama Factory微调中最常见的5个配置错误

避坑指南:Llama Factory微调中最常见的5个配置错误 大语言模型微调是让预训练模型适配特定任务的关键步骤,但配置不当很容易导致显存爆炸、训练失败等问题。本文将以Qwen模型为例,结合Llama Factory框架,总结5个最易踩坑的配置错误,帮助你在微调时避开这些陷阱,高效利用GPU资源。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含Llama Factory的预置镜像,可快速部署验证。下面我们直接进入正题: 错误1:数据类型误设为float32 这是最典型的"显存杀手"。许多工程师在微调Qwen时发现显存不足,根本原因往往是数据类型配置错误。 * 问题现象:即使使用A100 80G显卡,全参数微调时仍出现OOM(内存不足) * 原因分析: * float32精度下,模型参数占用显存是bfloat16的2倍 * 例如Qwen-7B模型在float32下需要约28GB显存,而bfloat16仅需14GB 正确配置方法: # 在训练配置中明确指定数据类型 { "fp16": true, # 或使用bf16 "bf16": false

【AIGC】AI工作流workflow实践:构建日报

【AIGC】AI工作流workflow实践:构建日报

workflow实践 * 引言 * 实现步骤分析 * 实践 * 创建 dify workflow 应用 * 创建工作流内部节点 * 1、设置输入字段 * 2、创建两个LLM节点 * 3、设置结束节点 * 运行工作流 * 结语 引言 工作流 workflow 是现在 LLM 很重要的一个概念,因为对于一个模型来说,非常复杂的问题很难一次性完美解决,而且可能需要很多别的辅助工具。而工作流就是将这些工具和模型组合起来,形成一个完整的解决方案。今天我们来做个工作流实践,帮助读者理解工作流。我们来构建一个帮助我们写日报的工作流。在帮助我们完成日报的填写的同时,我们需要它进行 AI 味的去除,免得出现别人一看就是 AI 写出来的文章的情况。 实现步骤分析 1. 我们需要一个可以构建工作流的平台,这边我们选择 dify 2. 我们需要模型根据我们提供的今天做的事情去自动生成日报 我们需要对刚才生成的文章进行 AI 味的去除 实践 创建