OpenClaw:介绍 -- 这只爆火的AI“龙虾”到底是什么?


更多内容:XiaoJ的知识星球

目录


OpenClaw 介绍:这只爆火的AI“龙虾”到底是什么?

摘要:OpenClaw 是 2026 年最火的开源 AI Agent 项目,GitHub 星标超过 26 万。本文将深入解析 OpenClaw 的核心原理、架构设计、高级功能以及实际应用,帮助你全面了解这个能真正"做事"的 AI 智能体框架。

.

一、OpenClaw 是什么?

1.1 基本定义

OpenClaw(原名 ClawdBot / MoltBot)是一款开源、自托管的 AI Agent 运行时框架,运行在用户本地设备上(如 Mac、Linux、树莓派等),通过 WhatsApp、Telegram、Teams 等 50+ 通讯平台与用户交互。

重要定位:OpenClaw 的官方定位很明确——它是一个 Agent 运行时,不是 Chatbot。这个定位决定了它所有的架构决策。与市面上绝大多数 AI 产品不同,OpenClaw 不是云端服务,而是真正运行在本地设备上的自主执行引擎。

.

1.2 核心理念

OpenClaw 的核心理念可以概括为:「能做事的 AI,不是只聊天的机器人」

它不是普通的聊天机器人,而是一个真正能够执行任务的 AI 智能体。其核心思想是:

  • 本地优先(Local-first):数据存储在本地文件系统,不依赖云端
  • 执行优先(Action-first):重点在于执行任务,而非仅仅对话
  • 模型无关(Model-agnostic):支持多种大模型,不绑定特定供应商

.

1.3 技术选型

OpenClaw 的技术选型非常务实,采用社区成熟的方案:

技术组件选型说明
核心语言TypeScript (Node.js ≥ 22)类型安全,易于维护
包管理pnpm monorepo高效的 monorepo 管理
测试框架Vitest快速的单元测试
架构分层五层架构设计客户端、Gateway、Agent、Skills、Memory
多模型支持Claude、GPT、Qwen 等不绑定特定供应商
本地优先运行全本地化处理数据不出设备

.

1.4 主要作用

OpenClaw 的能力覆盖多个领域,所有操作都能通过「说人话」完成,不用敲代码:

📊 办公自动化

  • 清理邮箱、自动写/发邮件
  • 管理日历(创建会议/提醒)
  • 航班值机
  • 文件读写/整理
  • 运行电脑脚本、执行 shell 命令

💻 开发辅助

  • 自动生成代码
  • 跑测试
  • 做代码审查
  • 部署服务
  • 代码补全和重构

🔧 运维管理

  • 监控服务器
  • 自动部署
  • 排查问题
  • Kubernetes 集群管理
  • Terraform 配置生成

🚀 个人效率

  • 日程管理
  • 信息检索
  • 跨平台交互
  • 设备控制
  • 自动化数据处理

.

二、OpenClaw 架构

2.1 核心设计原则

OpenClaw 遵循以下核心设计原则:

  • 本地优先 - 数据存储在本地文件系统,不依赖云端服务
  • 持久化记忆 - 纯文本文件存储,无数据库依赖,易于迁移和备份
  • 分层架构 - Gateway 统一控制平面,各层职责清晰
  • 7×24 运行 - 守护进程 + 心跳机制,确保系统稳定运行
  • 模型无关 - 真正实现了模型无关的架构,支持多种大模型
  • 模块化设计 - 各模块独立开发、部署和扩展

.

2.2 系统架构模块

OpenClaw 的架构包含多个核心模块,每个模块都有明确的职责:

🔐 模块 1:Gateway(网关)- 安全卫士

职责:负责安全控制和统一管理

核心功能

  • 对接 WhatsApp、Telegram、Teams 等 50+ 通讯平台
  • 统一控制平面,作为系统的入口点
  • 安全认证和权限管理
  • 请求路由和分发
  • 会话管理(Sessions)

技术实现

  • 运行在本地服务器(通常在端口 18789)
  • 使用各大平台的官方或第三方 SDK:
    • WhatsApp 通道:使用 baileys(WhatsApp Web API 实现)
    • Telegram:使用 grammy(Telegram Bot API 库)
    • 其他平台:对应的官方 SDK
💡 深度解析:Gateway 是 OpenClaw 的前台接待员,它是在您的计算机上运行的服务器。当用户通过任意聊天平台发送消息时,Gateway 首先接收并验证请求,然后路由到相应的 Agent 进行处理。Gateway 还负责维护会话状态,确保多轮对话的上下文连贯性。

.

🧠 模块 2:Agent(智能体)- 超级大脑

职责:负责思考、理解和推理

核心功能

  • 基于 Claude、GPT、Qwen 等大模型解析指令
  • 自然语言理解和生成
  • 任务规划和决策
  • 多轮对话管理
  • 上下文管理

技术实现

  • 底层的 Agent 循环基于开源框架 Paimimo
  • 支持多模型切换,不绑定特定供应商
  • 具备完整的会话管理、并发控制、记忆检索能力
  • 状态机管理:维护 Agent 的当前状态(Idle, Thinking, Acting 等)
💡 深度解析:Agent 是 OpenClaw 的核心推理引擎。它不是简单的 LLM 包装器,而是一个具备完整会话管理、并发控制、记忆检索以及丰富工具支持的复杂 Agent 运行时环境。Agent 通过状态机管理任务执行流程,从接收指令到执行任务再到返回结果,每个状态都有明确的转换逻辑。

.

🛠️ 模块 3:Skills(技能)- 工具箱

职责:负责执行具体任务

核心功能

  • 3000+ 插件覆盖开发、办公、生活场景
  • 文件操作、浏览器控制、邮件管理、代码执行等
  • 用户可以根据需求添加或删除模块
  • 支持自定义模块,实现「按需定制」
  • 遵循 MCP(Moltbot Control Protocol)协议

技术实现

  • 所有技能都遵循 MCP 协议
  • 支持 JavaScript/TypeScript、Python 等主流开发语言
  • 开发门槛低,一个完整的技能包含 3 个核心文件:
    • 技能配置文件(定义技能元数据)
    • 技能逻辑文件(实现具体功能)
    • 技能描述文件(供 Agent 理解)

常用 Skills 示例

  • 文件读写技能
  • 邮件发送技能
  • 代码生成技能
  • 网页爬虫技能
  • 日程管理技能
  • 系统监控技能
💡 深度解析:Skills 是 OpenClaw 的手脚,让 AI 能够真正"动手"做事。OpenClaw 真正强大的地方在于 Skills 生态——通过不同的技能插件,你的 AI 助手可以具备代码生成、UI 设计、性能优化、调试排错等各种能力。Skills 与 Tools 不是同一层级,Skills 是更高层次的抽象,可以包含多个 Tools 的组合。

.

💾 模块 4:Memory(记忆)- 记忆系统

职责:负责存储和检索记忆

核心功能

  • 持久化记忆存储
  • 纯文本文件存储,无数据库依赖
  • 上下文记忆
  • 长期记忆和短期记忆管理
  • 混合检索(BM25 + 向量搜索)

技术实现

  • 存储模型:Markdown 文件 + SQLite 索引
  • 检索机制:BM25/向量混合搜索
  • 上下文注入:智能地将相关记忆注入到 LLM 上下文中
  • 记忆分层
    • 短期记忆:当前会话的上下文
    • 长期记忆:持久化的用户偏好和历史操作
    • 工作记忆:任务执行过程中的临时信息
💡 深度解析:OpenClaw 的记忆系统架构非常精妙,它通过 Markdown 文件 + SQLite 索引 + BM25/向量混合搜索的组合构建出生产级别的记忆架构。相比传统 AI 依赖有限上下文窗口,一旦满了就丢弃旧信息,或者靠 RAG 把历史切碎存入向量数据库——找回的往往是孤立碎片,OpenClaw 的记忆系统能够更智能地管理和检索记忆。

.

🔗 模块 5:Channels(沟通专线)- 多平台连接

职责:负责与不同通讯平台的连接

核心功能

  • 支持 WhatsApp、Telegram、Teams 等多个平台
  • 统一的消息格式转换
  • 跨平台消息同步
  • 实时消息推送

技术实现

  • 基于各平台的官方 SDK 或第三方库
  • 统一的消息格式抽象层
  • 异步消息处理机制

.

🌐 模块 6:Node(节点)- 影分身

职责:负责跨设备部署

核心功能

  • 支持多设备同时运行
  • 节点间协同工作
  • 负载均衡和任务分发
  • 分布式部署支持

技术实现

  • 节点注册和发现机制
  • 任务队列和调度系统
  • 节点间通信协议

.

💓 模块 7:Heartbeat(心跳机制)- 健康监控

职责:负责系统健康监控

核心功能

  • 实时监控各模块状态
  • 故障检测和自动恢复
  • 7×24 小时运行保障
  • 性能指标收集

技术实现

  • 定期心跳检测
  • 故障自动重启
  • 健康检查端点
  • 监控数据上报

.

⏰ 模块 8:定时任务 - 自动化调度

职责:负责定时任务的调度和执行

核心功能

  • 定时任务管理
  • 周期性任务执行
  • 任务队列管理
  • 任务依赖管理

技术实现

  • Cron 表达式支持
  • 任务持久化
  • 失败重试机制
  • 任务执行日志

.

2.3 编排器(Orchestrator)架构

OpenClaw 采用编排器(Orchestrator)架构设计,这是其核心创新之一:

架构分层

┌─────────────────────────────────────┐ │ 触发层 (Triggers) │ │ 文本 | 语音 | 定时 | 事件 │ ├─────────────────────────────────────┤ │ 编排层 (Orchestrator) │ │ 任务规划 | 流程控制 | 状态管理 │ ├─────────────────────────────────────┤ │ 执行层 (Agents) │ │ Coding Agent | Data Agent | ... │ ├─────────────────────────────────────┤ │ 工具层 (Skills/Tools) │ │ 文件操作 | API 调用 | 浏览器控制 │ ├─────────────────────────────────────┤ │ 记忆层 (Memory) │ │ 短期记忆 | 长期记忆 | 向量检索 │ └─────────────────────────────────────┘ 

核心模块

  • core/orchestrator.ts(总指挥):系统的入口和状态机管理器
    • 维护 Agent 的当前状态(Idle, Thinking, Acting 等)
    • 管理任务队列和执行流程
    • 协调各个模块之间的交互

编排器的作用

  • 管理其他 AI Agent
  • 负责任务分解和分配
  • 协调多 Agent 协作
  • 处理任务依赖和优先级

.

三、OpenClaw 工作流程

OpenClaw 的工作流程可以概括为以下步骤:

  • 用户输入:用户通过任意聊天平台发送自然语言指令
  • Gateway 接收:网关接收并验证用户请求,创建 Session
  • Agent 解析:智能体理解指令并规划任务
  • Memory 检索:从记忆系统中检索相关上下文
  • Skills 执行:调用相应的技能插件执行具体操作
  • 结果存储:将执行结果和上下文存储到记忆系统
  • 结果返回:通过 Gateway 将结果返回给用户

.

深度解析:OpenClaw 的工作流程不仅仅是简单的请求-响应,而是一个完整的 Agent 循环:

  • 感知:通过 Gateway 接收用户输入
  • 认知:Agent 理解和规划任务
  • 决策:选择合适的 Skills 和执行策略
  • 行动:调用 Skills 执行任务
  • 记忆:将结果和上下文存储到 Memory
  • 反思:评估执行结果,优化后续决策

.

四、OpenClaw 示例

示例:日程管理

场景:自动创建会议和提醒。

实现方式

用户:明天下午 3 点和产品团队开会,讨论新功能 OpenClaw: 1. Agent 解析指令: - 时间:明天下午 3 点 - 事件:和产品团队开会,讨论新功能 2. Memory 检索:查找产品团队成员的联系方式 3. Skills 执行: - 调用日历 Skill - 创建日历事件 - 设置提醒 - 发送会议邀请给产品团队成员 4. Memory 存储:记录会议信息 5. Gateway 返回结果:已创建日历事件「产品团队会议 - 讨论新功能」,时间:明天 15:00,已设置提醒,已发送邀请给 5 位成员 

深度解析

这个示例展示了 OpenClaw 的智能理解能力:

  • 时间解析:理解"明天下午 3 点"的具体时间
  • 实体识别:识别"产品团队"、"新功能"等实体
  • 上下文检索:从 Memory 中检索产品团队成员信息
  • 多任务协调:同时创建日历事件、设置提醒、发送邀请

.

五、注意事项

在使用 OpenClaw 时,需要注意以下几点:

  • 安全第一:遵循最小权限原则,定期审计权限配置
  • 数据备份:定期备份重要数据,避免数据丢失
  • 性能优化:根据实际需求优化配置,避免资源浪费
  • 持续学习:OpenClaw 发展迅速,需要持续学习新功能
  • 社区参与:积极参与社区,分享经验和技能

.


参考:

文档:https://docs.openclaw.ai

GitHub:https://github.com/openclaw/openclaw

.


声明:资源可能存在第三方来源,若有侵权请联系删除!

Read more

突破性能瓶颈:llama.cpp多GPU分布式计算优化实践指南

突破性能瓶颈:llama.cpp多GPU分布式计算优化实践指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否还在为大模型推理时单GPU显存不足而苦恼?是否遇到过模型加载缓慢、生成效率低下的问题?本文将从实战角度出发,系统讲解llama.cpp项目的多GPU性能优化方案,帮你解决分布式推理中的设备调度、显存分配和并行效率三大核心难题。读完本文,你将掌握多GPU环境配置、性能监控与问题诊断的完整流程,让本地大模型部署效率提升300%。 多GPU架构解析:从设备发现到任务调度 llama.cpp通过GGML后端实现跨设备计算调度,其核心机制位于src/llama.cpp的设备管理模块。系统启动时会自动扫描所有可用计算设备,按优先级分为GPU、集成GPU(iGPU)和RPC服务器三类,相关代码逻辑如下: // 设备分类与优先级排序(

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

踩坑实录:多卡跑大模型Qwen-VL,为何vLLM模型加载卡死而llama.cpp奇迹跑通还更快? 前言:部署经历 针对 Qwen2.5-32B-VL-Instruct 满血版模型的部署实战。 手头的环境是一台配备了 4张 NVIDIA A30(24GB显存) 的服务器。按理说,96GB的总显存足以吞下 FP16 精度的 32B 模型(约65GB权重)。然而,在使用业界标杆 vLLM 进行部署时,系统却陷入了诡异的“死锁”——显存占满,但推理毫无反应,最终超时报错。 尝试切换到 Ollama(底层基于 llama.cpp),奇迹发生了:不仅部署成功,而且运行流畅。这引发了我深深的思考:同样的硬件,同样模型,为何两个主流框架的表现天差地别? 本文将围绕PCIe通信瓶颈、Tensor Parallelism(张量并行) 与 Pipeline

Stable Diffusion与Z-Image-Turbo部署对比:推理速度与显存占用评测

Stable Diffusion与Z-Image-Turbo部署对比:推理速度与显存占用评测 1. 为什么这场对比值得你花5分钟读完 你是不是也遇到过这样的情况: 想用AI画张图,结果等了快两分钟才出第一张预览; 好不容易跑起来,显存直接飙到98%,连浏览器都卡顿; 换了个提示词,画面崩得莫名其妙,文字渲染像乱码…… 这些问题,在Z-Image-Turbo出现之前,几乎是Stable Diffusion用户的日常。但最近,阿里通义实验室开源的Z-Image-Turbo,悄悄改写了“快”和“稳”的定义——它不是简单地提速,而是从模型结构、推理流程、内存调度三个层面重新设计了一套轻量级文生图范式。 这不是又一个“参数调优”的小改进,而是一次面向真实使用场景的工程重构:8步出图、16GB显存跑满、中英文提示词原生支持、Gradio界面开箱即用。我们实测了同一台A100(40GB)服务器上Stable Diffusion XL(SDXL)与Z-Image-Turbo的完整部署表现,重点盯住两个最影响体验的硬指标:端到端推理耗时和峰值显存占用。 下面不讲论文公式,不列训练细节,只给你

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama