【AIGC】《Generative Agents:Interactive Simulacra of Human Behavior》

【AIGC】《Generative Agents:Interactive Simulacra of Human Behavior》

让 AI 村民组成虚拟村庄会发生什么事?

文章目录

Generative Agents

Park J S, O’Brien J, Cai C J, et al. Generative agents: Interactive simulacra of human behavior[C]//Proceedings of the 36th annual acm symposium on user interface software and technology. 2023: 1-22.

这篇论文由斯坦福大学和 Google 的研究人员(如 Joon Sung Park, Percy Liang 等)共同发表,也就是大名鼎鼎的 “AI 小镇(Smallville)” 论文。鉴于你之前关注“能使用工具的 AI”,这篇文章正是“自主智能体(Autonomous Agents)”领域的开山之作。

核心贡献:提出了一个名为 “生成式智能体架构(Generative Agent Architecture)” 的系统,包含三个关键组件:

  • 记忆流 (Memory Stream):一个长期内存数据库,用自然语言记录智能体的所有经历(观察)。通过相关性、近时性、重要性三个维度进行检索,决定智能体当前该想起什么。
  • 反思 (Reflection):智能体会定期停下来,对记忆流中的碎片化信息进行归纳总结,提取出高层级的观点(例如:某人很友好,或者我下午需要去买菜),这让智能体能够形成更深刻的判断。
  • 规划 (Planning):智能体会制定长、中、短期计划,并根据环境变化(观察到新事物)随时调整计划(Re-planning),保证行为的逻辑连贯性。

点击对应的 NPC,可以看到更多细节

每个角色都有人设

最经典的案例情人节派对,至今还被反复拿出来讨论。
他们只给其中一个叫Isabella的AI下了一个种子指令——“你想在情人节办个派对”。
剩下的事情,人类完全没有插手,然后整个小镇就自发运转起来了。
Isabella开始四处发邀请函,接到邀请的AI们会根据自己的性格决定去不去,甚至有人在派对前一天就开始紧张地讨论该穿什么、要不要带点礼物。
甚至有人帮忙装饰咖啡馆,有人提前规划路线,最后5个AI准时到场,派对办得热火朝天。
整个过程虽然丝滑,却没有一条硬编码规则,全是这群电子小人自己“想”出来的。

Daily requirement 超长

NPC 觉醒,喜欢上了玩家操控的女角色,会发生什么事情呢?

行为说明应该是 ChatGPT 生成的

行为说明转成行为应该基于 program 规则

感知-思考-行动循环:

  • 感知:Agent 观察周围环境并存入记忆流。
  • 检索:根据当前场景检索最相关的记忆。
  • 行动:通过 Prompting 让 LLM 生成下一步动作(对话、移动、操作物体)。

固定的太枯燥了

可以让 Agent 根据外界的信息改变自己的行为

重要性打分,

模型内部的结构,有 plan,有 observation,还有 reflection

因为 no evidence

发现了相互暗恋的情况(Maria 和 Klaus),不排除是上帝把 reflection 塞进来了,因为没有看到 evidence

John 是 Eddy 的爸爸,John 看见 Eddy 后,改变了自己的 plan,开始与 Eddy 去对话

伊莎贝拉计划举办一场情人节派对。她传播了这个信息,在模拟结束时,12 个角色已经知道了这件事。其中 7 个人「犹豫不决」——3 个人已有其他计划,4 个人没有表露想法,这和人类的相处一样。

demo 比较慢,李老师没有看到最后,不知道 Maria 和 Klaus 的对话内容以及情人节活动现场发生的事情

自己注释了一个 happy ending,哈哈哈

实验最令人惊叹的是观察到了涌现出的社会行为 (Emergent Social Behaviors):

  • 信息传播:一个 Agent 决定举办情人节派对,消息通过社交互动在小镇里传开,大家纷纷调整计划参加。
  • 关系演变:智能体之间会建立新的友谊,并根据过去的互动改变对彼此的态度。
  • 协作:多个智能体协调时间,共同出现在同一地点。

论文证明了将 LLM 与架构化的记忆机制结合,可以创造出极具真实感的“数字人类”。

证明了 Agent 的可信度不仅取决于模型本身,更取决于其对过去经历的组织和反思能力

资讯

  1. 「斯坦福AI小镇」创业即获投1亿美元!李飞飞卡帕西都投了(2026-02-14)
    • 当初那个“智能体早期真神”,让25个智能体自己聊天、传八卦、谈恋爱的AI小镇Smallville团队也官宣创业了。
    • 公司名叫Simile,直接拿下了Index Ventures领投的1亿美元融资,连卡帕西、李飞飞也跟了。
  2. 爆火论文打造《西部世界》雏形:25个AI智能体,在虚拟小镇自由成长(2023-04-11)
    • Generative Agents 的架构中心是记忆流—— 一个全面记录智能体经验的数据库。智能体会从记忆流中检索相关记录,以规划智能体的动作行为并对环境做出适当反应,并且每次行为都会被记录以递归合成更高级别的行为指导。Generative Agents 架构中所有的内容都被记录下来并以自然语言描述的形式来进行推理,从而使智能体能够利用大型语言模型的推理功能。
    • 只有当智能体对最近事件的重要性分数总和超过某个阈值,智能体才会开始反思。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参考

  • https://speech.ee.ntu.edu.tw/~hylee/genai/2024-spring.php
  • https://www.bilibili.com/video/BV18fXbY6Eis/?spm_id_from=333.1387.homepage.video_card.click&vd_source=8e91f8e604278558ec015e749d1a3719
  • https://www.youtube.com/watch?v=G44Lkj7XDsA
  • Demo:https://reverie.herokuapp.com/arXiv_Demo/

Read more

DeerFlow 2.0:字节开源的超级 Agent 框架,让 AI 真正干活

DeerFlow 2.0:字节开源的超级 Agent 框架,让 AI 真正干活 作者:madprinter 日期:2026-03-24 项目地址:https://github.com/bytedance/deer-flow 项目介绍 DeerFlow(Deep Exploration and Efficient Research Flow)是字节跳动开源的一款超级 Agent 框架。2026 年 2 月 28 日,DeerFlow 2.0 正式发布后迅速登顶 GitHub Trending 榜首,目前已有近 40,000 颗星。 与传统的 AI 框架不同,

OpenCode AI 编程保姆级使用教程:从安装到实战,效率直接拉满

OpenCode AI 编程保姆级使用教程:从安装到实战,效率直接拉满

前言 当下 AI 编程工具层出不穷,而OpenCode凭借开源免费、多模型兼容、多端适配、项目级上下文感知的核心优势,成为了程序员的新晋效率神器。它不是简单的代码补全工具,而是能真正理解项目架构、帮你从需求分析到代码落地的 AI 编码代理,支持终端、桌面应用、IDE 扩展等多种使用方式,还能对接国内外 75 + 种 LLM 模型,兼顾便捷性和代码隐私性。 本文结合 OpenCode 官方文档和实际使用经验,用最通俗易懂的语言,从安装配置、核心操作、实战技巧、高级玩法四个维度,带你彻底玩转 OpenCode,不管是编程新手还是资深开发者,都能快速上手并提升开发效率! 一、先搞懂:OpenCode 到底适合谁?有啥核心优势? 1. 适用人群 * 编程新手:不用死记硬背语法,自然语言描述需求就能生成代码,快速入门; * 资深开发者:摆脱重复编码、重构老项目、

字节跳动 AI 原生 IDE Trae 安装与上手图文教程

字节跳动 AI 原生 IDE Trae 安装与上手图文教程

文章目录 * 一、 什么是 Trae? * 国际版与国内版区别 * 二、 下载与环境准备 * 第一步:访问官网下载 * 第二步:系统安装 * 第三步:首次启动与初始化配置 * 三、 核心功能上手实战 * 四、 进阶技巧:如何切换满血大模型 * 五、 总结 一、 什么是 Trae? 简单来说,Trae 是字节跳动近期推出的一款 AI 原生集成开发环境 (IDE)。你可以把它看作是国内打磨极佳的 Cursor 或 Windsurf 替代品。它从底层架构开始就围绕 AI 能力构建,不仅能自动补全代码,还能直接听懂你的大白话,帮你从零开始写项目、修 Bug、甚至一键部署后端服务。 核心亮点: * 完全免费:目前处于免费阶段,对于动辄几十美元一个月的 AI 开发工具来说,性价比拉满。

从 ReAct 到 Plan-and-Execute:AI Agent 推理架构的理解与选择

从 ReAct 到 Plan-and-Execute:AI Agent 推理架构的理解与选择

最近在做一个企业办公 Agent 项目,过程中花了不少时间研究 Agent 的推理架构该怎么选。市面上最主流的两种模式——ReAct 和 Plan-and-Execute——看起来都能用,但深入了解后我发现它们的设计哲学完全不同,适用场景也差异很大。 一、先说一个最基本的问题:Agent 为什么需要"推理"? LLM 本身就能回答问题,为什么还要给它加推理框架? 因为 LLM 只会"说",不会"做"。当用户说"帮我创建一个明天截止的任务",LLM 可以生成一段漂亮的文字描述应该怎么做,但它没有手去操作数据库。Tool(或者叫 Skill)就是给 LLM 装上了手脚——它可以调用接口、查询数据、执行操作。 但问题来了: