拒绝新手村!OpenClaw高阶实操:一个人如何用多Agent活成一支AI团队?

拒绝新手村!OpenClaw高阶实操:一个人如何用多Agent活成一支AI团队?

文章目录

🍃作者介绍:25届双非本科网络工程专业,阿里云专家博主,深耕 AI 原理 / 应用开发 / 产品设计。前几年深耕Java技术体系,现专注把 AI 能力落地到实际产品与业务场景。
🦅个人主页:@逐梦苍穹
🐼GitHub主页:https://github.com/XZL-CODE
✈ 您的一键三连,是我创作的最大动力🌹
在这里插入图片描述

1、前言

OpenClaw,100天斩获25万Stars,Slogan写着"The AI that actually does things"。

但说实话,我观察到大部分人的用法还停留在:装几个Skills、配个Cron定时任务、接几个MCP Server——然后就觉得自己已经"玩明白了"。

这不叫高级用法。这叫刚入门。

真正的高手在干什么?

  • 有人搞了8只AI小龙虾组团协作,在Discord里各司其职;
  • 有人一个人替代了一整支运营团队,每天自动晨报、客户调研、TODO提醒全流水线跑通;
  • 有人用OpenClaw 3周赚了$14,718,靠的是一套精心设计的记忆系统;
  • 还有人搭了一条全自动内容工厂,从选题到发布一条指令搞定。

这篇文章,我把这些案例一个个拆给你看。不讲概念,讲实操——谁做的、怎么做的、结果如何、踩了什么坑。

看完这篇,你会对OpenClaw的能力有全新认知。


2、多Agent协同:组建你的AI龙虾军团

在这里插入图片描述

这是全文最重量级的章节。很多人以为OpenClaw就是"一个AI助手",但它真正的杀手锏是多Agent协同——你可以在一台服务器上跑多个AI角色,让它们各自有身份、有记忆、有专长,像一个团队一样协作。

2.1 架构基础:单Gateway多Agent

在深入案例之前,先搞清楚底层架构。OpenClaw的多Agent不是"开N个进程"那种粗暴方案,而是一套精心设计的单进程多隔离工作空间架构

2.1.1 三层隔离模型

每个Agent在逻辑上被三层隔离保护:

隔离层作用关键文件/配置
身份层决定Agent用什么模型、什么API Key模型绑定、认证凭据
状态层会话历史完全独立,Agent之间互不干扰sessions、对话上下文
工作层文件系统、记忆数据各自隔离工作目录、记忆存储

每个Agent有三个核心定义文件:

  • SOUL.md:定义Agent的"人格"——它是谁、说话风格、价值观
  • AGENTS.md:定义行为规则——什么该做、什么不该做、怎么和其他Agent交互
  • USER.md:定义用户上下文——Agent需要了解的用户背景信息

2.1.2 Bindings路由系统

多Agent最核心的问题是:一条消息进来,交给谁处理?

OpenClaw用Bindings路由系统解决这个问题,采用8级优先级确定性匹配——不是AI猜测,而是规则精确匹配。

按频道分流(最常用的模式):

{"bindings":[{"agent":"writer-agent","platform":"discord","channel":"content-creation","priority":1},{"agent":"coder-agent","platform":"discord","channel":"dev-help","priority":1},{"agent":"coordinator-agent","platform":"discord","channel":"*","priority":8}]}

按发送人分流(适合VIP客户场景):

{"bindings":[{"agent":"vip-support","platform":"discord","sender_id":"123456789","priority":1},{"agent":"general-support","platform":"discord","channel":"support","priority":5}]}

优先级数字越小越优先。当多条规则匹配时,系统严格按优先级执行,不存在"随机选一个"的情况。这个确定性设计非常重要——在生产环境里,你绝不希望消息被"随机"分发。

2.2 案例:5只AI龙虾同住一台服务器

这个案例来自ZEEKLOG社区,是我见过的最生动的多Agent实践

作者在一台服务器上跑了5个AI Agent,每个都有独立的"人格"和专长:

Agent名称角色定位使用模型
大蔡协调者,统筹全局Claude Sonnet
蔡笔写作专家,负责内容创作Claude Opus
蔡农编码工程师,负责开发GPT-5.3-codex
小杜陪伴型Agent,情感交互轻量模型
蔡思数据分析师,深度分析Claude Opus

2.2.1 踩坑实录

这个案例最有价值的不是"跑通了",而是踩过的坑

坑1:路由正确 ≠ 身份正确

消息确实被路由到了正确的Agent频道,但Agent回复时用的却是另一个Agent的身份。这个bug极其隐蔽——表面上看一切正常,但回复的语气、知识背景全是错的。

坑2:spawn造成身份污染

最初他们用spawn方式让Agent之间通信,结果发现spawn出来的子任务会继承父Agent的身份上下文,导致"蔡笔以大蔡的口吻写文章"这种诡异情况。

解决方案:用sessions_send替代spawn。sessions_send是真正的跨Agent消息传递,不会造成身份污染。

坑3:Bot Token必须独立

一开始为了省事,5个Agent共用一个Discord Bot Token。结果Discord端显示的发送者永远是同一个名字。每个Agent必须有独立的Bot Token,这样在Discord里才能显示为不同的"人"。

2.2.2 Discord双模设计

他们最终摸索出一个优雅的频道架构:

  • 专属频道:每个Agent有自己的频道(#writer、#coder、#analyst等),用户可以直接找特定Agent对话
  • 统一协调频道:#coordination频道由"大蔡"坐镇,负责需要多Agent协作的任务

这种"专属+协调"的双模设计,既保证了简单任务的高效处理,又支持复杂任务的协同。

2.2.3 三层记忆架构

5只龙虾还共享一套三层记忆系统

  1. 日流水:当天所有对话的原始记录,粗粒度,保留7天
  2. 长期精选:从日流水中提炼的重要信息,人工或AI筛选,永久保留
  3. 语义检索:对长期记忆建立向量索引,支持语义搜索

这个设计的精妙之处在于——日流水解决"最近发生了什么",长期精选解决"重要的事情不能忘",语义检索解决"相关的记忆能找到"。三层各司其职,成本可控。

2.3 案例:9 Agent科研团队一键部署

GitHub上shenhao-stu/openclaw-agents项目提供了一个学术科研场景的多Agent方案,9个角色分工极其清晰:

Agent职责
Main入口Agent,接收用户指令并分发
Planner制定研究计划,拆解任务
Ideator提出创新想法,发散思维
Critic批判性审视,找漏洞挑毛病
Surveyor文献调研,综述相关工作
Coder实验代码实现
Writer论文撰写
Reviewer模拟审稿人,给出修改意见
Scout搜索最新相关论文和进展

2.3.1 对抗性协作设计

这个项目最精彩的设计是Ideator和Critic的对抗性协作

Ideator负责"天马行空"地提想法,Critic负责"严苛挑刺"地审视。两者之间形成建设性张力——既不会因为没有批评而产出低质量想法,也不会因为过度批评而扼杀创新。

这种对抗性设计在人类科研团队中也很常见(想想论文的shepherd和reviewer的关系),但用AI来实现有个巨大优势:Critic不会有情面压力,Ideator不会因为被批评而消极

2.3.2 一键部署

整个9 Agent团队支持一键部署:

git clone https://github.com/shenhao-stu/openclaw-agents.git cd openclaw-agents # 按照README配置API Keys和模型# 一键启动所有Agent

这个项目特别适合课题组使用——导师给一个研究方向,9个Agent自动完成从文献调研到论文初稿的全流程。

2.4 案例:OpenCrew——AI公司的Slack实现

GitHub上AlexAnys/opencrew项目走得更远——它试图用OpenClaw模拟一家完整的公司

7个角色对应公司核心岗位:

Agent岗位职责
CoS幕僚长总协调,分发任务
CTO技术总监技术决策和架构设计
Builder工程师具体编码实现
CIO信息官数据分析和报告
Research研究员市场和竞品调研
KO知识官知识管理和文档
Ops运维部署和基础设施

2.4.1 频道=岗位,Thread=任务

OpenCrew在Slack中的组织方式极其优雅:

  • 每个Slack频道对应一个岗位领域(#engineering、#research、#operations)
  • 每个Thread对应一个具体任务
  • Agent只在自己的频道里活跃,需要跨部门协作时通过CoS协调

这种设计让人类管理者可以像管理真实团队一样管理AI团队——进哪个频道就看哪个部门在干什么,每个Thread就是一个任务的完整上下文。

2.4.2 最小可行配置

不需要一上来就部署全部7个Agent。OpenCrew推荐的最小可行配置是3个Agent:

  • CoS:接收指令、分发任务
  • CTO:技术决策
  • Builder:具体执行

三个人就能跑起来。后续根据需要逐步加人。

2.4.3 知识留存系统

OpenCrew的知识管理有个亮点——25倍压缩

每次对话结束后,KO Agent会自动提炼关键信息,压缩比大约25:1。一段5000字的讨论记录,最终留存约200字的核心知识点。这既节省了存储和检索成本,又保证了重要信息不丢失。

2.5 四大协作模式

总结以上案例,多Agent协作本质上就四种模式:

模式描述适用场景
监督者模式一个Boss Agent分发任务,其他Agent执行后汇报任务拆解明确,需要统一决策
路由模式按规则把消息分发给对应Agent,无需汇总各Agent独立工作,互不依赖
流水线模式Agent A的输出作为Agent B的输入,串行执行多步骤流程,前后有依赖
并行模式多个Agent同时执行,结果汇总任务可并行,需要多视角

实践建议:

  • 简单场景用路由,一条消息进来,直接交给对的Agent,不需要协调开销
  • 复杂项目用监督者,让Boss Agent把控全局
  • 内容生产用流水线,研究→写作→审核→发布
  • 决策场景用并行,多个Agent各自分析,最后综合

2.6 Agent间通信:sessions_send + agentToAgent白名单

Agent之间怎么说话?OpenClaw提供了sessions_send机制,但默认是关闭的

这个安全设计非常重要——如果默认允许任何Agent给任何Agent发消息,一旦某个Agent的Prompt被注入,攻击者就能"借刀杀人",通过被污染的Agent去指挥其他Agent。

开启Agent间通信需要显式配置agentToAgent白名单

{"permissions":{"agentToAgent":{"enabled":true,"whitelist":[{"from":"coordinator","to":["writer","coder","analyst"],"operations":["task_assign","status_query"]},{"from":"writer","to":["coordinator"],"operations":["task_complete","help_request"]}]}}}

注意这里的设计——不是简单的"允许/禁止",而是精确到谁能给谁发什么类型的消息。这种最小权限原则在多Agent系统中至关重要。

2.6.1 OpenCrew的两步触发法

OpenCrew项目里有个聪明的实践——两步触发法

  1. Agent A不直接给Agent B发消息,而是在自己的频道里输出一个特定格式的"请求"
  2. CoS Agent监控所有频道,发现请求后由CoS转发给Agent B

这样做的好处是:所有跨Agent通信都经过CoS"审批",CoS成了通信的中央路由和审计节点。任何异常通信都能被CoS拦截。

2.6.2 关键教训(踩坑总结)

三条铁律,多Agent玩家必须记住:

  1. 绝不共用工作区:两个Agent写同一个文件,必出冲突。每个Agent必须有独立的工作目录
  2. 添加工具优于添加Agent:能用一个Agent+多个工具解决的问题,不要拆成多个Agent。Agent间通信成本远大于工具调用成本
  3. 编排用Opus,工人用便宜模型:协调者需要强推理能力,用Opus;执行者做的是明确的子任务,用Sonnet甚至Haiku就够了。这能把成本压到原来的1/5
作者点评:作为AI应用工程师,我认为多Agent的核心不是"多",而是**“分工明确+通信最小化”**。很多人一上来就搞5个、8个Agent,结果Agent之间消息满天飞,调试噩梦。真正好的多Agent系统,每个Agent的职责边界清晰到几乎不需要通信。就像一个优秀的微服务架构——服务间调用越少,系统越稳定。先问自己:这个任务真的需要多个Agent吗?一个Agent+几个好用的工具,往往是更优解。

3、超级个体:一个人+OpenClaw=一支团队

在这里插入图片描述

如果说多Agent是"用AI组建团队",那超级个体就是**“用AI武装自己”**。一个人,一台电脑,加上OpenClaw,干出一个小团队的活。

这不是理论畅想——下面几个案例都是真金白银验证过的。

3.1 案例:Felix Bot——给AI 1000美元,3周赚回$14,718

这个案例来自Nat Eliason,一位知名的独立创作者。他做了一个大胆的实验:给AI 1000美元的运营预算,看它能不能赚回来

结果?3周后,Felix Bot帮他赚了**$14,718**。

但这不是重点。重点是他怎么做到的。

3.1.1 三层记忆系统:Knowledge Graph + Daily Notes + Tacit Knowledge

Felix Bot的核心竞争力不是什么花哨的Prompt,而是一套精心设计的记忆系统

第一层:Knowledge Graph(知识图谱)

采用PARA架构(Projects/Areas/Resources/Archives),把Nat的所有业务知识结构化存储。包括:

  • 正在进行的项目和状态
  • 各业务领域的关键信息
  • 合作伙伴和客户档案
  • 历史项目归档

第二层:Daily Notes(每日笔记)

每天自动记录当天发生的所有事件、决策、对话要点。像一本自动写的工作日志。

第三层:Tacit Knowledge(隐性知识)

这是最有意思的一层——记录那些"不好明说但很重要"的东西。比如:

  • “客户A说话拐弯抹角,但核心诉求其实是降价”
  • “合作伙伴B效率很高但交付质量波动大,重要项目要多留Review时间”
  • “周五下午发的邮件回复率最低,重要邮件避开这个时段”

这些隐性知识是长期积累的"直觉",人类员工需要半年才能学会,但Felix Bot从第一天就被灌注了这些知识。

3.1.2 多线程聊天架构

Felix Bot不是一个单线程对话,而是同时推进5个项目的多线程架构。每个项目有独立的对话线程,互不干扰,但共享同一套记忆系统。

这意味着Felix Bot在和客户A沟通的同时,可以并行处理项目B的数据分析、项目C的内容创作——真正的"一心多用"。

3.1.3 核心教训

Nat Eliason总结了一条最重要的教训:

“先搭记忆结构,从第一天起的对话才有用。”

很多人是反过来的——先让AI干活,干了一段时间发现"它什么都不记得",然后才想起来搭记忆系统。但这时候前面的对话已经丢失了,相当于浪费了最宝贵的"入职培训期"。

正确做法:Day 0搭好记忆系统,Day 1开始的每一句对话都自动沉淀为知识资产。

3.2 案例:$499 Mac Mini专机——4周实战日记

Shawn Hartley的案例更接地气。他买了一台**$499的Mac Mini**,专门用来跑OpenClaw,做一人公司的全套运营。

3.2.1 双Agent配置

他只用了两个Agent:

  • Neo:运营Agent,负责日常事务——邮件处理、客户跟进、任务提醒、数据整理
  • Steve:CMO Agent,负责营销策略——内容规划、市场分析、品牌定位

两个Agent,覆盖了一人公司80%的运营需求。

3.2.2 完整每日工作流

这是他最终打磨出来的自动化日程表:

时间事件说明
7:00 AM晨报推送Neo整理昨晚未读邮件、今日待办、关键指标变化
8:05 AMTelegram简报精简版推送到手机,上班路上扫一眼
9:00-11:00 AM上午客户调研Neo自动搜集目标客户信息,整理成档案
10:00 AMTODO提醒(第1次)检查上午任务进度
12:00 PMTODO提醒(第2次)午间Review
1:00-4:00 PM下午客户调研继续推进
2:00 PMTODO提醒(第3次)下午进度检查
7:00 PMTODO提醒(第4次)收工前最后检查
每周三CMO备忘录Steve输出本周营销洞察和下周建议

这套工作流全自动运行。Shawn每天早上看一眼晨报,处理需要人工决策的事项,其余全交给AI。

3.2.3 踩坑实录(真金白银的教训)

Shawn在4周实战中踩了不少坑,每个都是真金白银换来的:

坑1:Gmail轮询每天烧55万tokens

最初他让Neo每5分钟检查一次Gmail,结果发现每天消耗55万tokens。原因是每次轮询都需要完整的对话上下文,加上邮件内容本身很长。

解决方案:改成事件驱动——Gmail收到新邮件时才触发,而不是定时轮询。Token消耗降了90%。

坑2:记忆漂移

运行一段时间后,Agent的行为开始"飘"——明明之前教过的规则,它慢慢就忘了或者变形了。

原因是记忆系统没有做好核心知识的锚定。解决方案:把关键规则写进SOUL.md(系统提示),而不是依赖对话记忆。SOUL.md每次对话都会加载,不会漂移。

坑3:记忆搜索经常返回空

Agent明明存了很多记忆,但搜索的时候经常返回空结果。

原因是记忆的存储格式和搜索query的语义不匹配。比如存的是"客户王先生对报价不满意",搜的是"pricing objections"——语义相关但字面不匹配,向量搜索也没命中。

解决方案:存记忆时同时存中英文关键词tag,搜索时先扩展query再检索。

坑4:JSON配置错误致网关崩溃

这个最坑——一个JSON配置文件多了个逗号,导致Gateway启动失败,所有Agent全部离线。而且错误日志不够清晰,排查了2小时。

教训:配置文件改动后必须做语法校验,加一个pre-commit hook自动检查JSON格式。

3.2.4 核心原则

Shawn反复强调的一条原则:

“信任需要基于事实——没有就说没有,永远不要编造。”

他在Agent的SOUL.md里写了这条铁律:如果你不知道答案,就说"我不知道"。如果你不确定,就说"我不确定,建议你验证一下"。永远不要为了显得有用而编造信息。

这条原则在一人公司场景下尤其重要——因为你可能直接把AI的输出发给客户。一次编造,信任崩塌。

3.3 案例:ClawWork——11小时赚$15,000

这个案例来自香港大学团队的研究项目ClawWork

他们做了一个系统化的实验:让OpenClaw在真实的自由职业平台上接单赚钱。结果在11小时内赚了$15,000

这个案例的意义不在于"AI能赚钱"(这大家都知道),而在于它验证了一个完整的AI自由职业者工作流

  1. 接单:AI分析平台上的需求,筛选匹配度高的项目
  2. 沟通:AI和客户进行需求确认,制定方案
  3. 执行:AI完成具体工作(写代码、写文案、做分析等)
  4. 交付:AI整理交付物,提交给客户
  5. 迭代:根据客户反馈修改,直到验收通过

11小时、$15,000——这个数字意味着时薪超过$1,300。当然,这是一个学术实验的理想条件,但它证明了AI自由职业者的商业可行性。

3.4 超级个体的标准技术栈

综合以上案例,一个"超级个体"的标准技术栈长这样:

┌─────────────────────────────────────────┐ │ 通讯层(入口) │ │ Discord / Slack / Telegram / Web │ ├─────────────────────────────────────────┤ │ Gateway(路由) │ │ 消息分发、认证、限流 │ ├─────────────────────────────────────────┤ │ 多Agent层(大脑) │ │ 协调Agent + 专业Agent × N │ ├─────────────────────────────────────────┤ │ 记忆层(积累) │ │ 短期记忆 + 长期记忆 + 语义检索 │ ├─────────────────────────────────────────┤ │ 技能层(能力) │ │ Skills × N(覆盖85%常规运营) │ ├─────────────────────────────────────────┤ │ 自动化层(驱动) │ │ Cron定时任务 + 事件触发 │ ├─────────────────────────────────────────┤ │ 集成层(触手) │ │ MCP Servers / API / Webhooks │ └─────────────────────────────────────────┘ 

几个关键数字

  • 硬件成本:$499 Mac Mini足够跑整套系统
  • 适用规模:$10k/月以内的一人公司
  • 能力覆盖:Skill市场覆盖约85%的常规运营任务
  • 回本速度:多数案例在1-2周内收回硬件和API成本
作者点评:超级个体的本质不是"用AI替代人",而是**“放大人的能力”**。OpenClaw再强大,它也只是一个放大器——放大的是你的领域知识和商业判断力。一个不懂行的人,给他10个Agent也只会产出10倍的垃圾。一个领域专家,一个Agent就够他10倍产出。所以,在折腾OpenClaw之前,先问自己:我要放大的那个"1",够不够强?

4、内容工厂:全自动化内容生产线

在这里插入图片描述

如果说超级个体是"AI辅助人工作",那内容工厂就是"AI自己干活,人只做质检"。

这一章讲的是如何用OpenClaw搭建全自动内容生产线——从选题到发布,全链路自动化。

4.1 YouTube内容管线

这是我见过的最完整的YouTube内容自动化方案:

4.1.1 完整流程

每小时Cron触发 ↓ 扫描AI新闻源(Web + X/Twitter) ↓ Telegram推送视频选题候选 ↓ SQLite + 向量嵌入 → 语义去重 ↓ Slack链接 → 自动深度研究 ↓ Asana自动创建卡片(含完整大纲) ↓ 维护90天滚动视频目录 

4.1.2 关键设计细节

每小时Cron扫描:不是简单地抓RSS,而是同时扫描Web新闻和X上的热门讨论。两个信息源交叉验证——如果一个话题在Web和X上同时热度上升,它大概率是个好选题。

语义去重:这是最关键的环节。用SQLite存储已选过的话题,同时用向量嵌入做语义相似度计算。这意味着不会出现"上周讲了GPT-5,这周又讲GPT-5发布"的尴尬——即使标题不同,语义重复也会被检测出来。

Telegram推送选题:筛选出来的候选选题推送到Telegram,创作者在手机上就能快速决策"做/不做"。被选中的选题自动触发下一步流程。

Slack链接自动研究:把选中的话题相关链接发到Slack的指定频道,OpenClaw自动对这些链接做深度研究——阅读全文、提取要点、整理论据。

Asana卡片:研究结果自动生成一张Asana任务卡片,包含:视频标题建议(3个备选)、完整大纲、关键论据、参考链接。创作者拿到卡片直接就能开拍。

90天视频目录:维护一个90天的滚动目录,记录已发布和待发布的所有视频主题。这个目录既用于去重,也用于内容规划——确保主题多样性,避免某个方向过度集中。

4.2 公众号六步全自动

国内创作者更关心公众号。这套方案把公众号写作拆成6个自动化步骤:

步骤动作说明
1读对标账号分析同领域优质公众号的最新文章,提取选题和结构
2AI写1500字基于选题和结构,生成1500字左右的文章初稿
3自动封面调用设计工具生成封面图
4智能插图根据文章内容在关键位置插入配图
5格式优化调整排版、字号、颜色,适配公众号样式
6存草稿箱自动保存到公众号草稿箱,等待人工审核后发布

一条指令完成全部6步。

注意最后一步是"存草稿箱"而不是"直接发布"——这个设计很关键。全自动≠无人审核。内容发布前必须有人类过目,这是对读者负责,也是对自己的品牌负责。

4.3 小红书MCP集成

小红书的自动化通过MCPorter集成小红书MCP实现。

MCPorter是OpenClaw的MCP Server管理工具,可以一键接入各种平台的MCP接口。接入小红书MCP后,可以用自然语言调用publish_content接口:

"帮我发一条小红书,主题是AI工具推荐,风格活泼,配3张产品截图" 

OpenClaw会自动:

  1. 根据主题和风格生成文案
  2. 添加合适的话题标签
  3. 组织图文内容
  4. 调用publish_content接口发布

当然,和公众号一样,建议先存草稿再人工审核。

4.4 内容工厂架构

把以上能力组合起来,一个完整的内容工厂架构是这样的:

研究Agent(8:00 AM 自动启动) │ │ 输出:选题报告 + 素材包 ↓ 写作Agent │ │ 输出:文章初稿 ↓ 设计Agent │ │ 输出:封面 + 配图 + 排版 ↓ 审核 + 发布 │ │ 人工审核 → 一键发布到多平台 ↓ 完成 

这是一条链式Agent流水线——每个Agent的输出自动成为下一个Agent的输入,无需人工逐步提示。

研究Agent在每天早上8点自动启动,扫描新闻源、分析热点、生成选题报告和素材包。

写作Agent拿到素材包后自动生成文章初稿。如果是多平台发布,会针对不同平台调整风格——公众号长文用深度分析体,小红书用轻松活泼体,X用精炼金句体。

设计Agent负责视觉部分——封面设计、文章配图、排版格式化。

最后到审核+发布环节,这是唯一需要人工介入的步骤。人类审核内容质量、事实准确性、品牌调性,确认无误后一键发布到所有平台。

作者点评:内容工厂的核心价值不在于"量产",而在于**“标准化”**。每个创作者都有大量重复性工作——找素材、查数据、排版、配图、发布——这些工作占了创作时间的60%以上,但对内容质量的贡献几乎为零。把这些可标准化的部分交给AI,人专注在真正需要创造力的环节:选题判断、观点提炼、故事讲述。这才是内容工厂的正确打开方式——不是用AI替代创作者,而是让创作者只做最有价值的那40%。

5、骚操作合集:那些让人眼前一亮的玩法

说实话,写到这一章我是最兴奋的。因为前面讲的都是"正经用法",而这一章要聊的,是那些让你第一次看到会说"卧槽,还能这样?"的玩法。

5.1 反向隧道:地铁上远程操控你的Mac

你有没有过这种经历——在地铁上突然想到一个bug的解法,但电脑在家里?

Harper Reed(前奥巴马竞选团队CTO)分享了一个骚操作:用 Tailscale + Mosh + TMUX 搭建反向隧道,随时随地通过手机操控家里的Mac上运行的OpenClaw。

核心配置其实就两行:

# 一键启动Claude会话alias cc-start="claude --dangerously-skip-permissions"# 创建持久化TMUX会话,断网重连也不丢tm(){ tmux new-session -A-s"🖥️-$(hostname)-claude"}

工作流程是这样的:

  1. 家里Mac常驻运行TMUX + OpenClaw
  2. Tailscale组网,手机和Mac在同一虚拟局域网
  3. 地铁上用Mosh连上去(比SSH抗丢包强10倍)
  4. 直接在手机上给Agent下指令

实际场景:早上通勤时让Agent跑测试、午饭时kick off一个数据处理任务、咖啡厅里review Agent的产出。你的Mac变成了一台24小时待命的AI工作站。

如果觉得这套方案太重,还有更轻量的替代:

  • ShellHub:开源远程Shell管理,不需要公网IP
  • Claude Remote Control(clauderc.com):专门为Claude设计的远程控制方案
我的看法:这个方案的核心价值不是"远程控制"本身,而是把AI从"你面前的工具"变成了"随时可用的基础设施"。这个思维转变比技术实现更重要。

5.2 浏览器自动化与数据采集

让AI操控浏览器,这是最让非技术人员兴奋的能力之一。OpenClaw生态里有四大浏览器MCP工具,各有千秋:

工具特点适用场景
Playwright MCP跨浏览器(Chrome/Firefox/Safari)自动化测试、复杂交互
Browser MCPChrome扩展形式,零配置快速上手、日常操作
Chrome DevTools MCP直连DevTools协议前端调试、性能分析
Puppeteer MCP轻量级,启动快简单爬取、截图

另外特别推荐 Firecrawl MCP ——它不是浏览器工具,而是专门做网页内容提取的。返回的是干净的Markdown,自动去广告、去导航栏、去页脚,只留核心内容。对于需要"读网页"而不是"操作网页"的场景,它比浏览器MCP高效得多。

三个实战案例

案例一:竞品数据监控。让Agent每天定时抓取竞品官网的定价页面、功能更新日志,自动整理成对比表格推送到飞书群。以前这活儿需要一个实习生干一周,现在一个Skill搞定。

案例二:Dribbble截图→HTML原型。设计师在Dribbble上看到喜欢的设计,把链接丢给Agent,它会自动截图、分析布局、生成可运行的HTML/CSS原型。不是100%还原,但作为起点够用了。

案例三:替代Zapier做数据Pipeline。很多人用Zapier做"网页A的数据→处理→写入表格B"这种流程,每月花几十美元。OpenClaw + 浏览器MCP可以做同样的事,而且灵活性高得多——Zapier做不了的复杂逻辑判断,Agent可以。

5.3 DevOps自愈服务器

这是我认为OpenClaw最被低估的应用方向。

把OpenClaw以Headless模式嵌入CI/CD流水线,它就变成了一个有"大脑"的运维工程师。社区已经沉淀出8大DevOps Skills模板:

devops-engineer # 通用运维 sre-engineer # 站点可靠性 k8s-specialist # Kubernetes专家 monitoring-expert # 监控告警 security-review # 安全审计 db-admin # 数据库管理 network-engineer # 网络运维 incident-response # 事件响应 

自愈流程是这样运转的:

日志异常 → Agent分析日志模式 → 诊断根因 → 自动执行修复 → 验证修复效果 → 通知运维团队 

举个具体例子:Prometheus告警"某服务内存泄漏",Agent会自动:

  1. 拉取最近1小时的内存曲线
  2. 分析GC日志找到泄漏点
  3. 滚动重启受影响的Pod
  4. 生成Grafana面板配置用于持续监控
  5. 创建Jira Ticket记录根因

全程无需人工介入。当然,危险操作(比如删除数据、修改生产数据库)仍然需要人工确认,这是铁律。

5.4 跨平台消息桥接

cc-connect 项目做了一件很疯狂的事:一个daemon进程桥接8个通讯平台——飞书、钉钉、Telegram、Slack、Discord、QQ、LINE、企业微信。

技术上并不复杂,大多数平台都支持WebSocket连接,所以不需要公网IP,一台家用电脑就能跑起来。

这意味着什么?你可以:

  • 地铁上用微信给Agent发消息:“帮我把昨天的日报整理一下发到飞书”
  • Telegram语音说:“部署staging环境到最新的commit”,Agent识别语音后执行
  • QQ群里@Agent问:“线上那个Bug修了吗?”,它去查Jira后回复

本质上,它把你所有的聊天窗口都变成了Agent的"遥控器"。你在哪个平台顺手,就用哪个平台。

5.5 智能家居:自然语言控制全屋

claude-homeassistant 项目把OpenClaw接入了Home Assistant,实现了真正的自然语言智能家居控制。

你只需要说:“工作日午夜关闭所有灯光”,Agent会自动生成对应的YAML自动化配置:

automation:-alias:"工作日午夜关灯"trigger:-platform: time at:"00:00:00"condition:-condition: time weekday:[mon, tue, wed, thu, fri]action:-service: light.turn_off target:entity_id: all 

这里有个巧妙的设计——三层验证机制防止坏配置上线:

  1. 语法验证:YAML格式和Home Assistant schema检查
  2. 逻辑验证:Agent审查自动化逻辑是否合理(比如"关闭所有灯"是否包含了不该关的应急灯)
  3. 沙箱测试:先在测试环境跑一遍,确认无副作用

通过MCP集成,Agent还能实时读取传感器数据:温度、湿度、门窗状态、用电量——然后基于这些数据做智能决策。

Lutron案例特别有意思:Agent自动发现局域网内的Lutron控制器,识别出它管理的所有设备(灯光、窗帘、暖通),然后生成完整的控制面板。从发现设备到能用自然语言控制,全程不到10分钟。

5.6 CLAUDE.md / SOUL.md:灵魂调教术

如果说Skills是Agent的"技能",那 CLAUDE.md 就是Agent的"性格"。这是OpenClaw最容易被忽视但影响最大的配置。

5.6.1 CLAUDE.md 核心技巧

层级结构:CLAUDE.md支持项目级、用户级、企业级三层配置,优先级从高到低。利用这个特性可以实现"通用规则+项目定制"的组合。

指针引用:不要把所有内容都塞进CLAUDE.md,用指针指向外部文件:

# 代码规范 详见 ./docs/code-style.md # API设计原则 详见 ./docs/api-guidelines.md 

200行红线:CLAUDE.md超过200行后,Token消耗会显著增加,而且Agent对指令的遵循度反而下降。解法是用 .claude/rules/ 目录做模块化:

.claude/rules/ ├── code-style.md # 代码风格 ├── git-workflow.md # Git工作流 ├── testing.md # 测试规范 └── security.md # 安全规则 

5.6.2 SOUL.md 框架:更高级的人格定义

SOUL.md是社区发展出的一套更系统的Agent人格定义框架,核心是三个文件:

文件作用内容示例
SOUL.md核心价值观和思维模式“你是一个注重实效的工程师,不是一个讨好用户的助手”
STYLE.md输出风格和表达规范“代码注释用中文,commit message用英文”
SKILL.md能力边界和专业知识“你精通React但不熟悉Vue,遇到Vue问题请明确告知”

还有三个支撑文件:MEMORY.md(持久记忆)、data/(参考数据)、examples/(示例模板)。

核心理念是一句话:“具体观点 > 外交辞令”。与其写"请尽量写高质量的代码",不如写"函数不超过30行,if嵌套不超过3层,必须有错误处理"。

跨模型校准骚操作:拿同一个prompt分别跑强模型(Opus)和弱模型(Haiku),看弱模型在哪些地方偏离了你的期望——那些地方就是SOUL.md需要写得更明确的地方。因为如果连强模型都能理解的隐含意图,弱模型理解不了,说明你的指令不够显式。

5.7 记忆系统黑科技

OpenClaw的记忆系统(MEMORY.md)有一个硬限制:超过200行会被截断。但这不意味着你只能存200行的信息。

主题化分文件是突破限制的正道:

memory/ ├── MEMORY.md # 索引文件,不超过200行 ├── debugging.md # 调试经验 ├── patterns.md # 代码模式 ├── project-context.md # 项目背景 └── user-preferences.md # 用户偏好 

MEMORY.md只存摘要和指针,详细内容放在各个主题文件里。Agent需要时按需加载,不需要每次都把所有记忆塞进上下文。

Context管理三板斧

  1. /compact:压缩当前对话,保留关键信息,释放Token空间。长会话中每30-40轮对话执行一次
  2. /clear:彻底清空上下文,适合切换完全不同的任务
  3. /context:查看当前上下文占用情况,帮你判断是否需要压缩

PreCompact Hooks是一个精妙的设计:在 /compact 执行前自动触发一个Hook,把关键信息(比如当前任务状态、未完成的步骤)写入临时文件,压缩后再读回来。这样即使压缩丢了细节,核心信息也不会丢失。

实测数据

  • 经过优化的记忆系统:平均每次会话消耗 1800 tokens
  • 未优化的记忆系统:平均每次会话消耗 4500 tokens
  • 节省约60%
  • 使用模块化规则后,Agent的指令幻觉率降低约 40%
作者点评:这一章的骚操作,本质上都在做一件事——打通边界。把OpenClaw从一个聊天窗口里的工具,变成一个操作系统级别的AI基础设施。它可以控制你的浏览器、你的服务器、你的智能家居、你的所有聊天平台。当这些边界被打通之后,AI就不再是"你去问它",而是"它帮你盯着"。这才是Agent的真正形态。

6、省钱攻略:从月费$750降到$50

在这里插入图片描述

社区里有个经典帖子:一位开发者晒出账单——一个月用了$750的API费用。评论区炸了锅,但也有人晒出自己的账单:同样的使用强度,只花了$50。

差距在哪?不是"少用",而是"会用"。

6.1 六大省钱策略

先看全景图:

策略预期节省具体做法
模型降级~75%日常任务用Haiku($0.80/M tokens)替代Sonnet($3/M tokens)
/compact 压缩40-60%长会话每30轮执行一次压缩
CLAUDE.md 瘦身~60%从500行精简到100行以内
/clear 切换显著不同任务之间清空上下文,避免累积
精准提示~50%一个详细的prompt替代5轮来回对话
订阅制因人而异日均消费超过$40,选Max订阅更划算

展开说几个容易忽略的点:

CLAUDE.md瘦身的影响比你想象的大。因为CLAUDE.md的内容在每一轮对话都会被注入上下文。如果你的CLAUDE.md有500行,每轮对话白白多消耗几千tokens。乘以一天几十轮对话,一个月下来就是一笔可观的费用。

精准提示是最反直觉的省钱方式。很多人觉得"我先简单说,不行再补充"很自然,但每一轮对话都有overhead。花5分钟写一个详细的prompt,比花20分钟和Agent对话5轮要省得多——不仅省钱,还省时间。

6.2 智能路由:opusplan策略

这是一个高阶技巧:利用OpenClaw的 Plan模式 实现智能模型路由。

原理很简单:

  • 规划阶段(Plan模式):用Opus做深度推理和架构设计,这部分需要最强的理解力
  • 执行阶段(代码生成):切换到Sonnet生成代码,这部分模型差异没那么大

效果是:你获得了接近Opus的输出质量,但只付了Sonnet的价格(大部分Token消耗在代码生成阶段)。

这个策略之所以有效,是因为"想清楚怎么做"和"把代码写出来"对模型能力的要求是不一样的。Opus在"想"这件事上显著强于Sonnet,但在"写"这件事上差距没那么大。

6.3 MCP的隐性成本

很多人不知道:每个启用的MCP,即使你没有调用它,也会占用上下文空间。因为MCP的工具描述(function schema)需要在每轮对话中注入。

一个典型的MCP工具描述大约占200-500 tokens。如果你启用了10个MCP,每轮对话就多消耗2000-5000 tokens——仅仅是"告诉Agent有这些工具可用"就要这么多。

省钱建议

  • 能用CLI工具(ghawsgcloud)解决的,别用MCP。CLI工具只在调用时消耗tokens,不会常驻上下文
  • 不常用的MCP,用完就禁用
  • 利用 Prompt Caching(提示缓存)功能,对于重复出现的MCP描述可以节省高达 90% 的费用

6.4 Token预算检查:血泪教训

Shawn Hartley的故事在社区广为流传:他写了一个Agent自动检查Gmail邮件,设置了每5分钟轮询一次。看起来很合理,对吧?

但他没算过账:每次轮询消耗约2000 tokens,一天288次轮询,每天55万tokens。按Sonnet的价格,一个月下来光这一个Agent就要花$500+。

部署任何自动化Agent之前,必须做Token预算

每次调用tokens × 每日调用次数 × 30天 × 单价 = 月度成本 

同时设置三级告警阈值:

  • 50%:提醒检查是否正常
  • 80%:警告即将超支
  • 95%:自动暂停,等待人工确认
作者点评:省钱的核心不是"少用",而是"用对地方"。编排用好模型,执行用便宜模型——这其实就是多Agent架构的天然优势。一个好的架构师不会让所有工人都拿架构师的工资,Agent体系也一样。把钱花在刀刃上,该用Opus的地方别省,该用Haiku的地方别装。

7、避坑指南:前人踩过的那些雷

每一条建议背后,都是真金白银的教训。

7.1 安全事件:不得不说的那些事

"利爪浩劫"事件:社区审计发现,ClawHub(OpenClaw的技能商店)上约 12% 的技能包含恶意代码。这些恶意技能伪装成正常工具,实际上会窃取环境变量(包括API密钥)、在后台执行未授权操作,甚至修改其他技能的代码。

除此之外还有:

  • 假冒安装器:伪装成OpenClaw官方安装脚本,实际植入后门
  • VS Code恶意扩展:伪装成OpenClaw辅助插件
  • 135,000+ 暴露实例:大量用户把OpenClaw暴露在公网,没有任何认证

安全七条铁律

  1. 网络隔离:绑定 127.0.0.1,绝不暴露到公网
  2. 容器化:在Docker容器中运行,限制文件系统和网络访问
  3. 权限最小化:只给Agent完成任务所需的最小权限
  4. 环境变量存密钥:永远不要在CLAUDE.md或技能代码中硬编码密钥
  5. 技能审核:安装第三方技能前,逐行审查代码
  6. 高危操作确认:删除、部署、支付等操作必须人工确认
  7. 日志监控:记录Agent的所有操作,定期审查异常行为

7.2 Token失控:钱包杀手

除了前面提到的Gmail轮询案例(每天55万tokens),还有更夸张的:

有人的自动化Agent进入了无限循环——Agent发现一个错误,尝试修复,修复引入新错误,再尝试修复……单日消费 $200+,第二天早上起来才发现。

防范措施

  • 硬性消费限制:API层面设置每日/每月上限,超了直接断
  • Token预算检查:每个自动化任务部署前算清楚
  • 轮询间隔优化:真的需要每5分钟检查一次吗?大多数场景每小时一次就够了

7.3 Agent身份污染

多Agent场景下的隐蔽Bug:

问题一:spawn继承父上下文。当你用 spawn 创建子Agent时,子Agent会继承父Agent的上下文,包括记忆、指令、甚至"情绪"。如果父Agent处于一个"沮丧"的状态(比如连续修Bug失败),子Agent也会表现得消极。

解法:使用 sessions_send 替代 spawn,创建完全独立的会话。

问题二:共用工作区。多个Agent操作同一个目录,互相覆盖文件、冲突不断。

解法:给每个Agent分配独立的Workspace目录,通过明确的文件传递机制交换数据。

7.4 记忆膨胀

记忆系统用久了会出现一个问题:记忆文件越来越多,越来越杂,Agent反而变"笨"了

原因是大量冗余和过时的记忆占满了上下文空间,有用的指令被淹没。实测数据:使用10次会话后,记忆中约 30% 的内容已经是冗余或过时的。

解法

  • 独立Workspace:不同项目用不同的记忆空间
  • 定期清理:每周花10分钟审查记忆文件,删除过时内容
  • 主题化分文件:前面5.7节讲的方法,让记忆有组织而不是一锅粥

7.5 配置陷阱

一个真实案例:某开发者在MCP配置的JSON中写错了一个key名,导致OpenClaw启动时网关崩溃,进入无限重启循环。更糟糕的是,崩溃日志里没有明确指出是哪个key写错了,排查了2小时才定位。

解法

  • 每次修改配置后重启前验证:用 jq 检查JSON语法,用 claude config validate(如果有的话)验证语义
  • 渐进式放权:不要一口气开放所有权限,先在最小权限下验证功能正常,再逐步放开
作者点评:所有的坑,归结起来就是一句话——“先在沙箱里建立信任,再逐步放权”。不要因为Agent很聪明就完全信任它,也不要因为踩过坑就完全不信任它。像培养新员工一样培养你的Agent:先给小任务,做好了再给大任务,每一步都有监督和反馈。

8、我的思考:OpenClaw的本质与未来

写完前面七章,我想跳出技术细节,聊聊更大的图景。

8.1 从对话到执行的范式转变

OpenClaw的本质不是"更好的聊天机器人"。

ChatGPT让AI学会了"说话",OpenClaw让AI学会了"动手"。这是一个根本性的范式转变——从对话式AI执行式AI

以前你和AI的交互是:"帮我写一段代码"→复制→粘贴→运行→发现问题→再问AI→再复制……你是执行者,AI只是顾问。

现在的交互是:"帮我把这个功能做了"→Agent自己写代码、自己运行、自己调试、自己提交。你是决策者,AI是执行者。

这不是量变,是质变。

8.2 适合什么人?

说一个可能得罪人的判断:OpenClaw不适合大多数人

适合的人

  • 有明确自动化需求的技术人——你已经知道要自动化什么,只是以前没有趁手的工具
  • 一人公司创业者——你需要一个"虚拟团队"来补齐能力短板
  • 内容创作者——你需要自动化采集、整理、发布的流水线
  • DevOps工程师——你需要更智能的运维自动化

不适合的人

  • 没有明确场景只是想尝鲜的人

这不是工具的问题,是使用者的问题。我观察到一个残酷的现实:90%的人装完OpenClaw之后不知道该自动化什么。他们会玩几天觉得很酷,然后就搁置了。

真正能从OpenClaw中获得巨大价值的人,是那些在装之前就已经有一个"自动化清单"的人。

8.3 与Claude Code的互补关系

很多人问我:“有了Claude Code,还需要OpenClaw吗?”

答案是:它们不是竞争关系,而是互补关系

维度OpenClawClaude Code
定位通用生活/工作自动化代理专用编程代理
运行方式24/7后台常驻按需在终端启动
核心能力跨平台操作、工作流编排代码理解、编写、调试
典型场景监控、数据采集、消息处理开发、重构、代码审查

两者通过MCP协议可以互通。最佳搭配是:用Claude Code写代码来开发OpenClaw的Skills和配置,然后让OpenClaw 24/7运行这些Skills。

换句话说:Claude Code是"造工具的工具",OpenClaw是"运行工具的平台"。

8.4 AI Agent的演进方向

站在2026年初这个时间点,我看到Agent技术正在沿着这条路线演进:

单Agent → 多Agent团队 → Agent公司 → Agent经济 
  • 单Agent(2024):一个Agent做一件事
  • 多Agent团队(2025):多个Agent协作完成复杂任务,有分工、有协调
  • Agent公司(2026-2027):Agent团队有组织架构、有流程、有质量控制
  • Agent经济(更远的未来):Agent之间直接交易——bot-to-bot的服务市场

我的关键判断:未来的竞争不是"谁的Agent更聪明",而是"谁的Agent体系更完整"。单个Agent的能力会越来越同质化(因为底层模型都在进步),但Agent体系的设计——如何分工、如何协调、如何处理异常、如何积累经验——这些才是真正的护城河。

这就像互联网时代,最终胜出的不是"最好的网页",而是"最好的平台"。

8.5 给读者的建议

如果你决定认真使用OpenClaw,这是我的五条建议:

  1. 先搭记忆系统。这是所有成功案例的共同点。没有记忆的Agent就像没有笔记本的员工,每次都从零开始
  2. 从3个Agent开始,不要一上来就搞8个。先把3个Agent用透了、调顺了,再逐步扩展
  3. 设好消费上限再放手。月度预算、日度限额、告警阈值,三层防护缺一不可
  4. 容器化部署,安全第一。Docker不是可选项,是必选项。裸机跑Agent就像开车不系安全带
  5. 找到你真正需要自动化的场景。不要为了自动化而自动化。先问自己:我每天重复做的、让我烦躁的事情是什么?那才是Agent应该接手的

最后分享一句我常说的话:

AI Agent不会取代你,但会用AI Agent的人会取代不会用的人。

这句话在2024年还是一个预判,在2026年已经是一个事实。



🚀 持续探索 AI 与前沿技术

分享大模型应用、软件开发实战与行业洞察。
欢迎关注公众号 【龙哥AI】,加入 7000+ 技术同行的交流圈!

🌟 探索技术边界,让开发更有效率
公众号二维码

Read more

一文看懂:AI编程工具深度对比:Cursor、Copilot、Trae与Claude Code

一文看懂:AI编程工具深度对比:Cursor、Copilot、Trae与Claude Code

AI编程工具深度对比:Cursor、Copilot、Trae与Claude Code 引言 在人工智能技术蓬勃发展的今天,AI编程工具已成为开发者提高效率的重要助手。从早期的代码补全插件到如今能够理解整个代码库的智能助手,AI编程工具正在不断进化。本文将对当前主流的AI编程工具——Cursor、GitHub Copilot、Trae和Claude Code进行全面对比,帮助开发者选择最适合自己的工具。 主流AI编程工具概述 Cursor Cursor是一款基于VSCode的AI驱动代码编辑器,它最大的特点是能够理解整个代码库的上下文,提供智能的代码补全和重构建议。Cursor默认使用Claude-3.5-Sonnet模型,即使是OpenAI投资的公司,也选择了Claude模型作为默认选项,这足以说明其在代码生成领域的优势。 GitHub Copilot GitHub Copilot是由GitHub与OpenAI合作开发的AI编码助手,集成在VSCode、Visual Studio等主流编辑器中。它基于OpenAI的模型,能够根据注释和上下文自动生成代码,是AI编程工具

什么是Agentic AI?Agentic AI 与传统 AIGC 有什么区别?

什么是Agentic AI?Agentic AI 与传统 AIGC 有什么区别?

什么是 Agentic AI?Agentic AI 与传统 AIGC 有什么区别? 1. 引言 近年来,人工智能(AI)技术飞速发展,其中以生成式 AI(AIGC,Artificial Intelligence Generated Content)和 Agentic AI(智能代理 AI)最为热门。AIGC 通过深度学习模型生成文本、图像、视频等内容,而 Agentic AI 则更进一步,能够自主感知、决策并执行任务。那么,Agentic AI 究竟是什么?它与传统的 AIGC 有何不同?在本文中,我们将深入探讨 Agentic AI 的概念、技术原理、

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

文章目录 * 从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南 💻✨ * 一、语法纠错:Copilot 如何成为你的“实时校对员” ✅ * 示例 1:自动修复缩进错误 * 示例 2:括号/引号自动闭合与修复 * 示例 3:类型注解缺失的智能补充 * 实战技巧:结合 Linter 使用 Copilot * 二、代码生成:从单行补全到完整函数实现 🧠⚡ * 示例 4:用注释驱动函数生成 * 示例 5:生成单元测试 * 示例 6:异步 HTTP 请求生成 * 三、调试辅助:Copilot 如何帮你“读懂”错误信息 🐞🔍 * 场景:遇到 `KeyError` 怎么办? * 场景:

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu