【AI】为什么 OpenClaw 值得折腾?安装体验与架构原理深度解析

【AI】为什么 OpenClaw 值得折腾?安装体验与架构原理深度解析



👨‍💻程序员三明治个人主页
🔥 个人专栏: 《设计模式精解》《重学数据结构》

🤞先做到 再看见!


目录

一、OpenClaw 到底是什么

OpenClaw 是一个个人 AI 助手平台,跑在你自己的设备上,你的笔记本电脑、一台云服务器、机柜里的 Mac Mini,或者一个云容器。

它把 AI 模型和各种工具,连接到你日常用的聊天 App,例如,WhatsApp、Telegram、飞书、钉钉等等。

OpenClaw 把 AI 助手当作基础设施来构建,而不只是优化提示词。

打个比方,普通聊天机器人就像一个只会接电话的客服,你问什么它答什么。

而 OpenClaw 更像是给 AI 搭了一整套办公系统,有会话管理、有记忆系统、有工具权限控制、有消息路由

AI 模型扮演大脑的角色,OpenClaw 负责帮你落地。

AI 模型的 API 调用还是走 Anthropic、OpenAI 那些服务商,但对话记录、工具执行、会话状态、所有调度逻辑,全部留在你自己的设备上。

下面这些功能,你可以完全自主控制:

  • 助手跑在哪里
  • 消息怎么路由
  • 它能用哪些工具
  • 会话之间怎么隔离

那也就是说有了OpenClaw就相当于一个清华北大的博士给你打工?🤩那咱们也来玩玩看。

二、OpenClaw快速安装与卸载

安装claw之前需要两个必要环境:

  1. Nodejs22+,下载链接:https://nodejs.org/en/download
  2. git(下载代码,管理代码版本),下载链接:https://git-scm.com/install/mac

安装完成之后就可以安装OpenClaw了

进入官网:https://openclaw.ai/

下滑找到Quick Start,运行下面的命令

curl -fsSL https://openclaw.ai/install.sh | bash 

这里选择yes

配置token、网关服务

一路yes

  1. 打开claw的面板,进行新手引导
openclaw onboard 

选择模型

这里qwen是免费的,可以先使用qwen

选择要接入的IM软件

这里我们可以先跳过,后续通过网页端接入也可以

选择搜索供应商

这里也可以先跳过

配置skill

这里我只点了github

配置其他的API-KEY

这里我们都先不配

hooks我都开启了,没有跳过

重启网关服务,并选择龙虾打开方式

使用web方式打开龙虾

龙虾启动!

如何卸载?

openclaw uninstall 

三、OpenClaw 的原理

OpenClaw的原理可概括为:一个开源、自托管的AI Agent平台,通过四层解耦架构和持久的文件化记忆系统,将大语言模型(LLM)从被动的聊天工具转变为能自主执行任务的“数字员工”。

下图即为OpenClaw整体架构

各层职责是什么?

层级核心职责关键组件
客户端层提供用户交互界面,连接 GatewayCLI、WebChat、macOS App、Mobile Nodes
Gateway 层统一控制平面,协议转换,连接管理WS Server、HTTP API、Channel Manager、Plugin Manager
通道层对接各消息平台,处理入站/出站消息Channel Adapters、消息队列、媒体处理
Agent 层执行 AI 推理,管理工具调用Pi Runtime、Tool Registry、Session Manager
扩展层提供可插拔的扩展能力Plugin SDK、Hooks、Skills

1. 四层架构(Gateway-Node-Channel-Agent):

  • Gateway(网关):中央控制平面,作为24/7运行的守护进程,管理WebSocket服务、会话(Session)和Agent调度。默认只绑定本地回环地址(127.0.0.1),确保基础安全。
  • Node(节点):设备端执行器,负责在本地运行具体操作,如执行系统命令、控制摄像头、录屏等。
  • Channel(渠道):消息接入层,统一连接超过20个即时通讯平台(如WhatsApp、Telegram、飞书、钉钉、Discord等),将用户消息路由至Gateway。
  • Agent:真正干活的核心引擎,组装上下文、调用 AI 模型、执行工具操作(比如浏览网页、操作文件、定时任务等)、保存状态

2. 记忆系统

OpenClaw 给每个 agent 的 workspace 预设了 7 类核心文件:

1. SOUL.md — Agent 是谁

这个文件定义了 agent 的人格:语气、风格、边界、价值观。有意思的是,模板里写着一句话:“This file is yours to evolve. As you learn who you are, update it.”——这个文件是你自己的,随着你了解自己,去更新它。

也就是说,agent 的"人格"不是你一次写死的,是它在跟你互动的过程中,自己慢慢调整的。它发现你喜欢简洁直接的回答,就会把这个偏好写进自己的灵魂文件里。

2. USER.md — 用户是谁

这是 agent 对你的画像:你的名字、时区、工作习惯、技术偏好、沟通风格。每次对话中 agent 了解到关于你的新信息,就会更新这个文件。用得越久,这个画像越精准,agent 就越"懂你"。

3. AGENTS.md — 做事的规矩和踩过的坑

这是最关键的一个文件。它定义了 agent 的行为规范,更重要的是,记录了所有踩过的坑****。

我在源码里看到它的模板有一条明确的指令:“When you learn a lesson → update AGENTS.md”、“When you make a mistake → document it so future-you doesn’t repeat it.”

翻译成人话就是:你犯了一个错,把它记下来,这样以后的你就不会再犯。

这就是为什么 OpenClaw 越用越好用——不是因为模型变聪明了,是因为 AGENTS.md 里的踩坑记录越来越多。每一条记录都是一次错误的代价换来的经验,被固化成了一行文字,从此永远生效。

4. TOOLS.md — 环境备忘

记录你的工作环境:SSH 主机名、摄像头设备名、文件路径习惯等。agent 踩坑后自己补充。

5. SKILL.md × N — 各领域的操作手册

每个 SKILL.md 定义了一个特定领域的操作规范。OpenClaw 内置了 52 个 skill,涵盖 GitHub issue 管理、邮件处理、健康检查、代码审查等。

更关键的是,你可以自己写 skill。比如你每周都要出一份特定格式的周报,你可以把格式要求、数据来源、输出模板写成一个 SKILL.md,放到 workspace 里。从此 agent 每次做周报都会按照这个规范来,不需要你每次重新描述。

Skill 的加载有优先级:内置的优先级最低,workspace 里用户自定义的优先级最高。也就是说你可以覆盖任何内置 skill 的行为。

6. memory/YYYY-MM-DD.md — 日常记忆

Agent 每天会写一个日期命名的 md 文件,记录当天的对话要点、做了什么、学到什么。这些文件会被索引到 SQLite 数据库里,支持全文搜索和向量检索。

7. MEMORY.md — 提炼后的长期记忆

Agent 会定期把 daily memory 里的重要内容提炼到这个文件里。相当于从日记中整理出来的笔记精华。这个文件每次对话都会被加载进 prompt,所以 agent 的"长期记忆"就存在这里。

四、OpenClaw的创新点

官方文档写得很清楚:它在你的机器上跑一个 Gateway 进程,这个 Gateway 负责连接各种聊天渠道、维护会话、做路由,并把消息转给后面的 Agent。

所以它的基本形态不是:

用户 → 大模型网页

而是:

用户 → 聊天渠道(QQ/飞书/微信等)→ OpenClaw Gateway → 模型 + 工具 + agent 逻辑

这套结构有两个很重要的含义。

1. 它把“入口”从网页改成了消息通道

以前大多数 AI 产品的交互入口是网页、App、IDE,OpenClaw 试图把入口前移到你已经每天在用的消息系统里。

这件事看起来只是换个壳,实际上影响很大。因为一旦入口变成消息通道,AI 就不再只是“你主动打开它时才存在”,而是会更像一个常驻、可随时召唤、可跨设备触达的助手。

即使你不在电脑旁,只要你有手机或其他终端可以登陆这些通道,就可以随时随地远程操控你的AI,OpenClaw极大降低了我们和AI交互的成本。

2. 它把“对话”升级成了“会话驱动的任务执行”

官方文档里反复强调 Gateway 是会话和路由的单一事实来源,支持多 agent 路由、隔离 session、控制 UI、节点能力等。这说明它不是把消息简单转发给模型,而是在中间增加了一层 运行时编排层

也就是说,OpenClaw 真正的价值不在“会聊天”,而在“会接任务、会保留上下文、会调能力、会继续执行”。



如果我的内容对你有帮助,请辛苦动动您的手指为我点赞,评论,收藏。感谢大家!!

在这里插入图片描述

Read more

AI员工——OpenCode、OpenClaw+Ollama的安装与配置

AI员工——OpenCode、OpenClaw+Ollama的安装与配置

人工智能(AI)相关的知识内容解析https://coffeemilk.blog.ZEEKLOG.net/article/details/158647749?spm=1001.2014.3001.5502 一、OpenCode的介绍与安装配置  1.1、OpenCode介绍 OpenCode的介绍序号Opencode介绍说明1opencode是什么OpenCode是一款开源AI编码代理工具,可在终端(TUI)、桌面应用和 IDE扩展中使用,支持多种大语言模型、上下文感知,主打隐私优先。2opencode的定位 《1》不是IDE插件,而是独立智能体(Agent),可理解上下文,规划任务、执行代码修改并验证结果。 《2》不是大语言模型本身,而是模型调度层,支持75+的大语言模型提供商(如:Claude、GPT、Gemini、本地的Llama、Qwen等)。 《3》采用MIT协议开源,社区活跃。

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地 摘要:世界模型(World Model)作为连接AI感知、决策与行动的核心枢纽,正成为突破通用人工智能(AGI)瓶颈的关键技术。本文从概念溯源、理论基础出发,系统剖析世界模型的技术架构、核心分类与实现方法,结合2024-2026年最新研究成果(如LeCun团队潜在动作世界模型、DIAMOND扩散模型)与产业落地案例,深入探讨其在强化学习、游戏开发、自动驾驶、机器人等领域的应用价值,最后梳理当前技术挑战并展望未来研究方向。全文兼顾学术深度与工程实践,为AI研究者与技术从业者提供全面的世界模型知识体系。 一、引言:从“符号拟合”到“世界理解”,AI的认知革命 1.1 大语言模型的认知瓶颈 自ChatGPT掀起大模型浪潮以来,大语言模型(LLM)凭借海量文本数据的统计拟合能力,在语义理解、内容生成、逻辑推理等领域展现出惊人实力。但在杨立昆、李飞飞等顶尖学者眼中,当前LLM仍是“

Harness Engineering工程化教程(非常详细),AI Agent复杂长任务从入门到精通,收藏这一篇就够了!

Harness Engineering工程化教程(非常详细),AI Agent复杂长任务从入门到精通,收藏这一篇就够了!

Views are my own. “Yet Another Chapter”,Generated by Google Lyria OpenAI 的一个团队在五个月内用 Codex 写了一百万行代码,三个工程师平均每天合并 3.5 个 PR,没有一行代码是工程师手写的。Anthropic 的 Claude Code 能连续工作数天构建完整应用。LangChain 的 Coding Agent 在 Terminal Bench 2.0 上从 52.8% 跃升至 66.5%,却只改了 harness,模型没动。 随着 Coding Agent 能力过去一段时间的突飞猛进,软件工程师的工作变了:从“

OpenClaw 接入 QVeris:让你的 AI 助手拥有实时数据查询能力

OpenClaw 接入 QVeris:让你的 AI 助手拥有实时数据查询能力

摘要:本文详细介绍如何在 OpenClaw 中配置和使用 QVeris API,让 AI 助手能够查询实时股票行情、天气数据、新闻资讯等外部信息。通过实际案例演示,帮助你快速上手这个强大的工具集成方案。 一、为什么需要 QVeris? 1.1 AI 助手的数据困境 使用过 AI 助手的朋友都知道,大模型有一个天然的局限性:训练数据有截止时间,无法获取实时信息。 比如你想问: * "今天 A 股涨幅榜前 10 的股票有哪些?" * "北京现在的天气怎么样?" * "特斯拉最新的股价是多少?" 如果没有外部数据源,AI 助手只能基于训练数据"猜"一个答案,准确性可想而知。 1.2