Agent Memory:让 AI Agent不再失忆

Agent Memory:让 AI Agent不再失忆
文章目录

在这里插入图片描述

近年来,大语言模型(LLM)驱动的 AI Agent 正在从"单次对话工具"向"长期协作搭档"进化。然而,一个根本性的短板始终制约着这一进化——记忆。每次对话结束,Agent 就像一个失忆症患者,忘记了所有交流过的内容。128K 的上下文窗口再大,重开对话就是陌生人。🧊

本文旨在对 AI Agent 记忆系统进行系统性的技术综述,内容涵盖记忆的分类体系、核心技术路线、代表性系统详解、横向对比以及未来发展趋势。作为系列博客的开篇,本文将为后续深入分析 OpenClaw 和 ASMR(Supermemory)两套记忆系统奠定基础。🚀

一. 引言:为什么 Agent 需要记忆?🤔

1.1 从工具到搭档的跨越

当前的 LLM 本质上是无状态的函数:给定输入,返回输出,对话结束即遗忘一切。这在单次问答场景下没有问题,但当我们期望 AI 成为长期搭档时,问题就暴露了:

  • 个性化缺失:无法记住用户偏好、工作习惯和历史决策 🙁
  • 上下文断裂:每次对话都要重新解释背景 🔄
  • 无法学习:同样的错误反复犯,无法从经验中成长 📉
  • 信任难建立:每次见面都是陌生人,何谈信任?🤝

1.2 记忆是 Agent 的最后一块拼图

在 Agent 架构中,感知(Perception)、推理(Reasoning)、行动(Action)三大能力已经通过 LLM + Tool Use 基本实现。但记忆(Memory)——让 Agent 跨越时间边界保持连续性的能力——仍是一个待攻克的难题。

正如 Supermemory 团队所说:

“在未来几年,数十亿个 Agent 将会高度个性化,针对每位用户量身定制——持续学习、不断进化。这正是我们深入研究 AI 记忆的原因。”

2025年底,学术界发表的综述论文《Memory in the Age of AI Agents》系统性地梳理了这一领域的研究图景,标志着 Agent 记忆从"附加功能"正式升级为"核心基础设施"。🏗️

二. 记忆系统的核心挑战:远比"存下来"复杂 ⚡

构建一个合格的 Agent 记忆系统,需要解决以下核心难题:

2.1 信息矛盾与时序推理

用户上个月说"我住在北京",这个月说"我刚搬到上海"。系统必须识别出后者覆盖了前者,只返回"上海"——而不是把两条信息一股脑丢给 LLM 让它猜。⏰

2.2 噪声过滤与精准检索

11.5 万 token 的对话历史中,可能只有 3 句话跟当前问题相关。检索噪声过高,LLM 同样无法有效利用信息。🎯

2.3 自动遗忘

“我明天有考试”——这条信息在明天过后就应该自动失效,不应变成永久噪声。自动遗忘机制是记忆系统区别于传统数据库的关键特性。🗑️

2.4 多源信息融合

Agent 的记忆不仅来自对话,还可能来自邮件、文档、代码仓库、日历等多种来源。如何统一管理和检索这些异构信息?📚

2.5 隐私与安全

记忆中包含大量个人敏感信息。本地部署 vs 云端托管、数据加密、访问控制、GDPR/EU AI Act 合规——这些都是必须考虑的工程问题。🔒

三. Agent 记忆的分类体系:从人类认知到机器实现 🗺️

借鉴认知科学中的人类记忆分类,Agent 记忆可以从多个维度进行划分。

3.1 按时间跨度分类

类型描述人类类比Agent 实现
工作记忆当前对话上下文短期记忆 / 工作台LLM 上下文窗口
短期记忆近期几轮对话几小时~几天的回忆会话历史缓存
长期记忆跨越天、周、月的信息长期记忆持久化存储(DB/文件)
情景记忆特定事件的时间、地点、细节“上周三的会议”时间线重建

3.2 按功能角色分类

类型描述示例
语义记忆关于用户的事实性知识“用户是资深工程师,用 Vim”
情景记忆具体事件及其上下文“上周三讨论了认证模块迁移”
程序记忆如何执行某个任务“部署时需要先跑测试”
元记忆关于记忆本身的知识“这条信息是上周更新的”

3.3 按存储形式分类

形式代表系统优势劣势
向量数据库Mem0, Zep语义检索强时序推理弱
知识图谱Cognee, Mem0 Graph关系推理强构建成本高
文件系统OpenClaw, Letta FS透明可编辑检索精度受限
关系数据库Zep (Postgres)结构化查询语义理解弱
纯内存ASMR速度快,可嵌入持久化待解决

四. 主流技术路线:五大范式 🔧

4.1 基于上下文窗口的记忆(Context Window)

核心思想:最朴素的方案——把所有历史信息塞进 LLM 的上下文窗口。

[System Prompt] + [历史对话] + [当前问题] → LLM → 回答 

优势

  • 实现最简单,无需额外组件 ✅
  • LLM 可以直接"看到"所有历史 👁️

劣势

  • 上下文窗口有上限(即使 128K 也不够长期使用)❌
  • Token 成本随历史长度线性增长 💸
  • 无法跨会话保持记忆 🚫

代表:ChatGPT 早期版本、大部分简单 Chatbot

4.2 基于 RAG 的记忆(Retrieval-Augmented Generation)

核心思想:将历史信息切分为 chunks,通过 embedding 向量化后存入向量数据库。查询时,先检索最相关的 chunks,再注入 LLM 上下文。

用户问题 → Embedding → 向量检索 → Top-K chunks → 注入上下文 → LLM → 回答 

优势

  • 突破上下文窗口限制 ✅
  • 语义相似度匹配,非精确关键词 🎯
  • 成本可控(只注入相关片段)💰

劣势

  • 语义相似 ≠ 语义正确(“我住在北京” vs “我搬到上海” 语义相似但含义相反)⚠️
  • 时序推理能力弱(无法区分新旧信息)⏰
  • Embedding 模型的质量直接影响检索效果 📉
  • 分块策略(chunk size / overlap)需要精心调参 🔧

代表:Mem0、Zep、OpenClaw 的核心检索层

4.3 基于文件系统的记忆(Filesystem-Based)

核心思想:直接用 Markdown 文件存储记忆,Agent 像人一样读写文件。

MEMORY.md(长期记忆) memory/2026-03-23.md(每日笔记) USER.md(用户画像) 

优势

  • 完全透明,人类可读可编辑 ✅
  • 无需额外基础设施(不需要向量数据库)🏠
  • Agent 和人类可以协同维护 🤝
  • Letta 基准测试显示,纯文件系统方案在 LoCoMo 上达到 74.0%,击败了多个专业记忆系统!📊

劣势

  • 文件量大时检索效率下降 📉
  • 缺乏语义理解(精确关键词匹配为主)🔍
  • 依赖 Agent 自身的记忆管理能力(写什么、删什么)🤖

代表:OpenClaw(文件 + 向量混合)、Letta Filesystem

4.4 基于知识图谱的记忆(Graph Memory)

核心思想:将记忆建模为实体-关系图谱,捕获事实之间的结构化关系。

[用户: 张三] --居住在--> [城市: 上海] [用户: 张三] --使用工具--> [编辑器: Vim] [事件: 认证迁移] --时间--> [2026-03-15] [事件: 认证迁移] --参与者--> [用户: 张三] 

优势

  • 关系推理能力强(“张三的同事中谁用过 Vim?”)✅
  • 自然处理实体更新(修改节点属性即可)🔄
  • 支持多跳推理 🧠

劣势

  • 图谱构建成本高(需要实体识别和关系抽取)💸
  • 难以表达非结构化的模糊信息 🌫️
  • 规模增长后查询性能下降 📉

代表:Cognee、Mem0 Graph Memory、Microsoft GraphRAG

4.5 基于多 Agent 推理的记忆(Agentic Memory)

核心思想:完全抛弃向量数据库和 Embedding,用多个专业化 Agent 并行阅读和推理已存储的信息,以"认知理解"替代"数学相似度"。

用户问题 → 编排器 → [搜索Agent1: 直接事实] + [搜索Agent2: 上下文线索] + [搜索Agent3: 时间线重建] → 汇总验证 → [8-12个专家Agent并行回答] → 投票/裁判 → 最终答案 

优势

  • 在 LongMemEval 上达到 ~99% 准确率,远超所有传统方案 🏆
  • 天然处理信息矛盾和时序变化 ⏰
  • 不需要 Embedding,可完全内存运行 💨

劣势

  • API 调用成本极高(每次查询需要 6+ 个 Agent 并行工作)💸💸💸
  • 延迟较高(多 Agent 串并行) ⏳
  • 目前仍为实验性方案 🧪

代表:ASMR(Supermemory)

五. 代表性系统详解 🏗️

5.1 Mem0:托管式语义记忆平台

开发者:Mem0.ai

架构

  • 双层存储:向量数据库(语义检索)+ 知识图谱(关系推理)
  • 自动从对话中提取事实并存储
  • 支持记忆冲突检测和自动更新
  • 提供 SaaS 托管和开源自部署两种模式

核心特性

  • Graph Memory(2026年1月推出):在传统向量检索基础上增加实体关系图谱,可追踪"张三 → 居住在 → 上海"这类结构化关系
  • 用户画像自动生成:从对话中自动提取用户偏好、习惯等
  • 多 LLM 支持:支持 OpenAI、Anthropic 等主流提供商

适用场景:需要快速集成记忆能力的 SaaS 产品、客服 Agent、个性化推荐系统 🏢

5.2 Zep:长期记忆即服务

开发者:Zep AI

架构

  • 基于 PostgreSQL 的持久化存储
  • 事实三元组提取 + 向量语义检索
  • 内置时间衰减和事实冲突解决
  • 商业云服务 + 开源社区版

核心特性

  • 对话历史自动摘要:自动对长对话进行压缩摘要
  • 事实提取与实体解析:从对话中自动提取结构化事实
  • 企业级合规:支持 SOC2、GDPR 等合规要求

适用场景:企业级 Agent 应用、需要合规保障的场景 🏛️

5.3 Letta(原 MemGPT):虚拟上下文管理

开发者:UC Berkeley 研究团队 → Letta 公司

架构

  • 灵感来源于操作系统的虚拟内存概念
  • Agent 自主管理一个层级化的记忆结构:
    • 核心记忆(Core Memory):始终在上下文中的关键信息
    • 归档记忆(Archival Memory):持久化存储,按需检索
    • 回忆记忆(Recall Memory):对话历史搜索
  • Agent 通过 memory_insertmemory_search 等工具函数自主操作记忆

核心特性

  • 自主记忆管理:Agent 自己决定什么时候存、搜、删——像人类管理自己的笔记 📝
  • Filesystem 基准惊人:Letta 发现纯文件系统方案在 LoCoMo 上达到 74.0%,超过了当时多个专业记忆系统

适用场景:需要 Agent 高度自主的场景、研究探索 🔬

5.4 Cognee:知识图谱驱动的结构化记忆

开发者:Cognee AI

架构

  • 以知识图谱为核心,使用 LLM 从文本中抽取实体和关系
  • 支持多种图数据库后端(Neo4j、FalkorDB 等)
  • 将非结构化文本转化为结构化的可查询图谱

核心特性

  • 图模式推理:支持多跳关系查询
  • 模块化管道:提取、去重、链接、推理各步骤可自由组合
  • 开源优先

适用场景:知识密集型 Agent、需要复杂关系推理的场景 🕸️

5.5 MemOS:记忆操作系统

开发者:学术研究团队(2025 年论文,被引 40 次)

架构

  • 将记忆抽象为"操作系统"概念,提供统一的记忆管理接口
  • 分层记忆架构:感知记忆、工作记忆、长期记忆
  • 记忆生命周期管理:创建、更新、合并、遗忘

核心特性

  • MemOS-0630 在所有记忆基准中排名第一,超越 Mem0、LangMem、Zep 和 OpenAI Memory
  • 统一的记忆操作 API

适用场景:学术研究、需要精细记忆管理的复杂 Agent 系统 📐

5.6 OpenClaw:文件 + 向量混合检索记忆

开发者:OpenClaw 开源社区

架构

  • Markdown 文件为记忆载体(MEMORY.md、daily notes)
  • 使用 SQLite + sqlite-vec 向量扩展 构建本地向量索引
  • Hybrid Search:向量语义检索(70%权重)+ FTS5 全文检索(30%权重)
  • 支持多种 Embedding 提供商(OpenAI、Gemini、Voyage、Mistral、Ollama、本地模型)

核心技术栈

Markdown 文件 ↓ 文件监听 (watch) 分块 (400 tokens, 重叠 80) ↓ Embedding (text-embedding-3-small 等) ↓ SQLite 存储 (chunks 表 + FTS5 虚拟表) ↓ Hybrid Search (向量 + 全文混合) ↓ 后处理 MMR 去重 + 时序衰减 + 引用溯源 ↓ 注入 LLM 上下文 

核心特性

  • 完全本地化:SQLite 存储,数据不出本机,隐私友好 🔒
  • 人机协同:Markdown 文件人类可读可编辑,Agent 也可以自动写入
  • 多语言 FTS:查询扩展支持中、英、日、韩、阿、葡、西、韩 8 种语言的停用词处理 🌍
  • MMR 去重:避免返回高度相似的重复片段
  • 时序衰减:可配置半衰期(默认 30 天),让近期记忆优先
  • 引用溯源:返回结果附带 Source: path#L12-L20,可追溯来源
  • 多模态记忆:支持图片 Embedding(需 Gemini embedding-2-preview)
  • 会话记忆(实验性):自动从历史对话中提取记忆

劣势

  • 无法处理信息矛盾(两条冲突信息都会返回)❌
  • 被动检索(用户问了才搜,不会主动提取结构化知识)❌
  • 无自动遗忘机制 ❌

适用场景:个人 AI 助手、隐私敏感场景、开发者工作流 👨‍💻

📢 系列预告:后续将发布 OpenClaw 记忆系统源码深度解析 专题博客,从 memory-search.tshybrid.ts,逐模块拆解其实现。

5.7 ASMR(Supermemory):多 Agent 主动推理记忆

开发者:Supermemory 团队(@DhravyaShah)

全称:Agentic Search and Memory Retrieval(智能体搜索与记忆检索)

发布时间:2026年3月22日,X 平台曝光量 199.6 万次 🔥

架构

原始对话 ↓ 3 个观察者 Agent 并行读取 (Gemini 2.0 Flash) ↓ 提取六维结构化知识 [个人信息 | 偏好 | 事件 | 时序数据 | 信息更新 | 助手信息] ↓ 存储 + 源映射 用户问题到来 ↓ 3 个搜索 Agent 并行推理 [Agent1: 直接事实] [Agent2: 上下文线索] [Agent3: 时间线重建] ↓ 汇总 + 逐字验证 8-12 个专家 Agent 并行回答 ↓ 多数投票 / 聚合裁判 最终答案 

核心技术突破

  • 完全抛弃向量数据库和 Embedding ❌🗄️
  • 纯内存运行,可嵌入机器人等硬件
  • 六维知识提取:不是简单的分块存储,而是围绕个人信息、偏好、事件、时序、更新、助手信息六个维度进行结构化提取 📐
  • 主动推理检索:3 个搜索 Agent 各有侧重(事实 / 线索 / 时间线),基于认知理解而非数学相似度 🧠
  • 多变体集成回答
    • 8 变体集群:8 个专业化 prompt 变体并行(精准计数器、时间专家等),任一答对即计正确 → 98.60%
    • 12 变体决策森林:12 个 Agent(GPT-4o-mini)独立回答 → 聚合大模型多数投票裁决 → 97.20%

三大工程洞察

  1. Agent 主动检索 > 向量搜索:语义相似度无法区分"旧信息"和"新修正",Agent 推理可以 ✅
  2. 并行处理是效率核心:3 读取 + 3 搜索,速度和颗粒度大幅提升 ⚡
  3. 专业化胜过泛化:精准计数器等专用 Agent 远强于单一全能 prompt 🎯

劣势

  • API 调用成本极高(6+ Agent 并行)💸💸
  • 尚未用于核心生产环境 🧪
  • 持久化方案未明确 ❓

后续计划

适用场景:对记忆精度要求极苛刻的复杂长期 Agent、研究探索 🔬

📢 系列预告:后续将发布 ASMR 多 Agent 记忆架构深度解析 专题博客,详细拆解其 3+3 Agent 流水线和投票裁判机制。

六. 系统横向对比 📊

6.1 架构对比

维度Mem0ZepLettaCogneeMemOSOpenClawASMR
存储后端向量DB+图谱PostgreSQL分层内存图数据库分层架构SQLite纯内存
需要Embedding
检索方式向量+图谱向量+事实Agent自主图查询统一API混合检索Agent推理
信息矛盾处理✅ 自动更新✅ 冲突解决部分✅ 图更新✅ Agent推理
自动遗忘
部署模式云+自部署云+自部署自部署自部署自部署本地未明确
开源部分4月开源
多语言支持依赖Embedding依赖Embedding依赖LLM依赖LLM依赖Embedding✅ 8种语言FTS依赖LLM
隐私友好⚠️ 云端⚠️ 云端✅ 本地✅ 本地✅ 本地✅✅ 全本地未明确

6.2 基准测试对比(LongMemEval / LoCoMo)

系统LongMemEval-sLoCoMo备注
ASMR 8变体~98.6%-实验性,非生产
ASMR 12变体~97.2%-单一共识答案
MemOS-0630-排名第一超越所有对手
Supermemory v1~85%-2025年首版
Letta Filesystem-74.0%纯文件系统!
OpenClaw未公开未公开生产系统
Mem0未公开未公开商业系统
Zep未公开未公开商业系统
⚠️ 注意:各系统在基准测试上的评估标准和条件可能不完全一致,横向比较需谨慎。部分商业系统各自声称优于竞争对手,但目前尚无独立的、全面的第三方对比评测。

七. 关键设计决策分析 🎯

7.1 向量检索 vs Agent 推理检索

这是当前记忆系统最核心的路线分歧。

向量检索派(OpenClaw、Mem0、Zep)认为:

  • 语义相似度检索在大多数场景下足够好
  • 成本低、延迟低、工程成熟
  • 与 Embedding 生态(OpenAI、Gemini)深度整合

Agent 推理派(ASMR)认为:

  • 语义相似度有本质缺陷:无法区分"旧信息"和"新修正"
  • 需要用主动推理替代被动检索
  • 付出更高的成本换取接近完美的准确率

笔者观点:两种路线并非完全对立,未来可能走向混合架构——向量检索做初筛(快速缩小范围),Agent 推理做精排(处理矛盾和时序推理),这样可以兼顾效率和准确率。⚖️

7.2 集中式 vs 分布式记忆

  • 集中式(Mem0、Zep):所有 Agent 共享一个记忆后端,适合团队协作场景
  • 分布式(OpenClaw):每个 Agent 有自己的独立记忆,隐私性更强

7.3 被动存储 vs 主动提取

  • 被动存储(OpenClaw):Agent 或用户手动写入记忆文件,系统只负责索引和检索
  • 主动提取(ASMR、Mem0):系统自动从对话中提取结构化知识,无需人工干预

主动提取更智能,但也更容易引入错误(错误提取、过度提取)。被动存储更可控,但依赖 Agent 的"自律性"。

7.4 精确召回 vs 语义模糊匹配

  • 精确召回(FTS 全文检索):适合查找特定术语、名称、代码片段
  • 语义模糊匹配(向量检索):适合"我之前说过的那个方案"这类模糊查询

OpenClaw 的 Hybrid Search(70% 向量 + 30% FTS)正是试图在两者之间取得平衡。

7.5 隐私与部署模式

模式代表隐私性便利性
全本地OpenClaw⭐⭐⭐⭐⭐⭐⭐⭐
自部署云Letta, Cognee⭐⭐⭐⭐⭐⭐⭐⭐
托管 SaaSMem0 Cloud, Zep Cloud⭐⭐⭐⭐⭐⭐⭐

八. 评估基准与指标 📏

8.1 LongMemEval

由 Supermemory 团队重点使用的基准测试,专注于长期记忆能力评估:

  • 超过 11.5 万 token 的对话历史
  • 包含互相矛盾的信息
  • 跨越多个会话的零散事件
  • 需要进行时间推理的复杂问题

8.2 LoCoMo(Long Conversational Memory)

另一个广泛使用的记忆基准:

  • 评估跨长对话的记忆保持能力
  • Letta Filesystem 在此基准上达到 74.0%

8.3 关键评估维度

维度描述
准确率检索到的信息是否正确
召回率是否找到了所有相关信息
时效性是否返回了最新版本的信息
抗矛盾面对矛盾信息是否能给出正确答案
延迟检索到回答的端到端延迟
成本每次查询的 API / 计算成本

九. 未来展望 🚀

9.1 混合架构将成为主流

向量检索做粗筛 + Agent 推理做精排 + 知识图谱做关系推理,三者融合的混合架构可能是最终答案。

9.2 记忆将从"附加功能"变成"基础设施层"

正如 Supermemory 团队所预见的:“过去几年,大模型的竞争集中在参数规模、推理速度、上下文窗口长度。但记忆才是让 AI 从’工具’变成’搭档’的最后一块拼图。”

9.3 标准化与互操作

目前各记忆系统各自为政,缺乏统一的接口标准。MemOS 提出的"记忆操作系统"概念,以及行业对统一评估基准的需求,都在推动标准化进程。

9.4 多模态记忆

当前大多数记忆系统只处理文本。随着多模态 Agent 的普及(语音、图像、视频),记忆系统也需要支持多模态信息的存储和检索。OpenClaw 已经开始支持图片 Embedding,但仍处于早期阶段。

9.5 隐私计算与联邦记忆

在企业场景下,多个 Agent 可能需要共享部分记忆但保护敏感信息。联邦学习 + 差分隐私的技术路线可能被引入记忆系统。

十. 系列预告 📢

本文作为 Agent Memory 系列博客的开篇综述,后续将推出两篇深度解析:

  1. 《OpenClaw 记忆系统源码深度解析》
    • memory-search.tshybrid.ts 逐模块拆解
    • SQLite + sqlite-vec 的向量存储实现
    • Hybrid Search 的权重调参实践
    • 多语言 FTS 查询扩展机制
    • 文件监听与增量同步策略
    • 适配 Gemini 的多模态记忆
  2. 《ASMR 多 Agent 记忆架构深度解析》
    • 3+3 Agent 流水线的编排逻辑
    • 六维知识提取的 Prompt 设计
    • 8/12 变体集成回答的投票机制
    • 从 ~85% 到 ~99% 的优化路径
    • 与 Supermemory 生产引擎的关系

敬请期待!✨

参考文献

  1. Du, Y., et al. “Memory in the Age of AI Agents.” arXiv preprint, December 2025. [GitHub]
  2. Shah, D. “We broke the frontier in agent memory: Introducing ~99% SOTA memory system.” X (Twitter), March 22, 2026. [Link]
  3. Supermemory. “ASMR: Agentic Search and Memory Retrieval.” Supermemory Blog, 2026. [GitHub]
  4. OpenClaw. “OpenClaw: Open-source AI Agent framework.” [GitHub]
  5. Packer, C., et al. “MemGPT: Towards LLMs as Operating Systems.” arXiv preprint arXiv:2310.08560, 2023. → 后更名为 Letta
  6. Mem0. “Graph Memory for AI Agents.” Mem0 Blog, January 2026. [Link]
  7. Li, Z., et al. “MemOS: A Memory OS for AI System.” arXiv preprint, 2025. 被引 40 次
  8. Letta. “Benchmarking AI Agent Memory: Is a Filesystem All You Need?” Letta Blog, August 2025. [Link]
  9. Zep AI. “Zep: Long-term memory for AI Agents.” [Link]
  10. Cognee. “Cognee: Knowledge graph memory for AI.” [GitHub]
  11. 新智元. “一夜之间,AI终获「永久记忆」!最难考试99%刷爆SOTA,全网直呼疯狂.” 微信公众号, 2026年3月23日.

Read more

AI 内容导出乱、格式崩、公式变?我开发了这只鸭子帮我全解决了(八) AI导出鸭 FAQ 篇:你们问得最多的问题,我一次说清楚

AI 内容导出乱、格式崩、公式变?我开发了这只鸭子帮我全解决了(八) AI导出鸭 FAQ 篇:你们问得最多的问题,我一次说清楚

这篇不讲场景,不讲对比。 就做一件事: 把这段时间评论区和私信里出现频率最高的问题, 集中回答一遍。 有些问题看起来很基础,但我知道很多人有同样的疑惑—— 所以一个都不跳过。 ━━ 关于安装和使用 ━━ Q:在哪里下载?怎么安装? Edge 或 Chrome 浏览器,直接打开插件中心,搜索「AI导出鸭」,点安装,完成。 不需要注册账号,不需要配置任何东西,安装完刷新页面就能用。 Q:支持哪些 AI 平台? 主流平台基本都支持—— DeepSeek、豆包、千问、元宝、Kimi、智谱清言、秘塔、ChatGPT、Gemini、Claude、Grok、Perplexity…… 只要是在浏览器里用的 AI 对话页面,基本都能覆盖。 如果你用的平台导出有问题,评论区说一声,我看到会跟进。 Q:操作流程是什么?

别酸软件老哥了!硬件工程师的“AI白嫖指南”:这5个神技现在就能用!

别酸软件老哥了!硬件工程师的“AI白嫖指南”:这5个神技现在就能用!

别酸软件老哥了!硬件工程师的“AI白嫖指南”:这5个神技现在就能用! 文章目录 * 别酸软件老哥了!硬件工程师的“AI白嫖指南”:这5个神技现在就能用! * 🛠️ 神技一:充当“无情的 Datasheet 翻译与提取机” * 🛠️ 神技二:硬件工程师的专属“全栈程序员” * 🛠️ 神技三:BOM 表替代料的“地毯式搜索雷达” * 🛠️ 神技四:电路与波形的“老中医会诊” * 🛠️ 神技五:EDA 工具内的“初级小助理” * 💡 总结:AI 不会淘汰你,只会让你少加点班 标签:硬件工程人工智能ChatGPT/Kimi效率工具实战教程 各位“焊武帝”、“画板侠”和“炸机大师”们,大家好! 看着隔壁软件组的同事天天用着 GitHub Copilot 自动写代码,用 ChatGPT 摸鱼,我们硬件工程师往往只能默默拿起烙铁,

在OpenClaw中构建专业AI角色

在OpenClaw中构建专业AI角色

这条信息在晚上 11:47 通过 WhatsApp 传来:“天气警报:明天早上看起来很糟糕——-8°C,伴有冰冻降雨,直到上午 10 点。您早上 8:30 的户外访问可能会不舒服。要我建议重新安排到下午吗?” 我不记得配置过那种程度的情境感知主动性。然后我查看了 IDENTITY.md。 多重角色设定(IDENTITY.md)Moltbot 中的文件作为您的 AI 智能体 | 由 Gemini 3 Pro 生成的图像 © 透明度:本文的 AI 辅助结构化研究。配置模式、角色设计和分析均来自我自己的实践。 在第一篇文章中,我探索了 SOUL.md——定义您的 AI 选择成为谁的文件。核心价值观。指导在模糊情况下做出决策的原则。

【免费下载】 PANTONE 潘通色标薄全系列AI色板库

PANTONE 潘通色标薄全系列AI色板库 【下载地址】PANTONE潘通色标薄全系列AI色板库PANTONE潘通色标薄全系列AI色板库为设计师和艺术家提供了一套全面的色彩资源。该库包含PANTONE色标薄全系列颜色数据,以AI格式存储,可直接导入Adobe Illustrator,确保设计中的色彩精确还原。其特点包括全面性、便捷性和专业性,满足专业设计需求。使用简单,只需下载解压后导入Illustrator即可。这一色板库将成为提升工作效率和设计品质的得力助手。 项目地址: https://gitcode.com/Premium-Resources/3af99 欢迎使用PANTONE潘通色标薄全系列AI色板库!这是一个全面的色彩资源集合,旨在为设计师、艺术家以及所有需要对色彩进行精确控制的工作者提供便捷。 此色板库包含PANTONE色标薄全系列的颜色数据,均以AI(Adobe Illustrator)格式存储,可以直接导入到您的Adobe Illustrator项目中,确保您的设计工作能够精确还原所需的颜色。 特点 * 全面性:涵盖PANTONE色标薄全系列色彩。 *