OpenClaw 部署完整指南:本地 AI 助手安装、配置与上手全流程

OpenClaw 部署完整指南:本地 AI 助手安装、配置与上手全流程

OpenClaw 是一款开源的本地 AI 个人助手,运行在用户自己的设备上,支持调用 Claude、GPT 或本地模型执行邮件管理、文件操作、网页浏览等自动化任务。与 SaaS 类 AI 服务不同,OpenClaw 的数据、上下文与技能均存储在本地,不依赖任何封闭云平台。2025 年以来,它已成为开发者和技术用户部署私有 AI 工作流的主流方案之一。


OpenClaw 是什么

OpenClaw 是由开发者 Peter Steinberger 创建的开源 AI 助手框架,其核心理念是「AI 即队友」——用户通过 WhatsApp、Telegram、Discord、Slack、Signal 或 iMessage 等任意聊天工具向 AI 发送消息,AI 在本地自主完成任务。

核心特点:

  • 本地运行:所有数据、记忆与技能存储在用户设备,不上传第三方服务器
  • 多模型支持:原生集成 Anthropic Claude、OpenAI GPT,并支持本地离线模型
  • 持久记忆:跨会话学习用户偏好与工作习惯
  • 50+ 集成:覆盖 Gmail、GitHub、Spotify、Obsidian、Twitter 等主流服务
  • 技能扩展:通过 ClawHub 社区市场安装或自建技能插件

相关实体:Anthropic(Claude 模型提供方)、OpenAI(GPT 模型提供方)、ClawHub(技能社区市场)、pnpm(包管理工具)。


部署前准备

系统要求

项目要求
操作系统macOS、Windows 或 Linux
Node.jsv22 或更高版本(一键脚本自动安装)
macOS 伴侣 App需 macOS 15+,提供 Universal Binary
网络部署时需联网拉取依赖;运行时支持完全离线(使用本地模型)
数据参考:[数据待核实:建议引用 OpenClaw GitHub 仓库 README 中的 Stars 数量与贡献者数,截至 2026 年 Q1]

AI 模型 API Key 准备

部署前需准备至少一个 AI 模型的访问凭证:

  1. Anthropic Claude:在 Anthropic Console 申请 API Key
  2. OpenAI GPT:在 OpenAI 平台申请 API Key
  3. 七牛云 AI 推理服务:兼容 OpenAI/Anthropic 双 API 标准,新用户可免费获得 300 万 Token,适合作为低成本替代方案调用 Claude 或其他主流模型(查看七牛云 AI 推理服务

三种部署方式

方式一:一键安装(推荐)

macOS / Linux:

curl-fsSL https://openclaw.ai/install.sh |bash

Windows(PowerShell):

iwr-useb https://openclaw.ai/install.ps1 |iex

脚本会自动检测系统环境、安装 Node.js 22+ 及所有依赖,适合绝大多数用户。

方式二:NPM 全局安装

npm i -g openclaw openclaw onboard 

适合已有 Node.js 环境、希望精细控制安装过程的开发者。

方式三:源码安装(可定制)

# 方法 A:通过安装脚本拉取 Git 版本curl-fsSL https://openclaw.ai/install.sh |bash-s -- --install-method git# 方法 B:手动克隆git clone https://github.com/openclaw/openclaw.git cd openclaw pnpminstallpnpm run build pnpm run openclaw onboard 

源码安装适合需要修改底层逻辑、二次开发或贡献社区的用户。


初始化配置(onboard)

安装完成后,运行引导程序完成初始化:

openclaw onboard --install-daemon 

引导程序将依次完成:

  1. API Key 配置 —— 输入 Claude / GPT 或七牛云 API Key
  2. Gateway 启动 —— 默认监听 http://127.0.0.1:18789/
  3. Channel 连接 —— 配置消息渠道(Telegram Bot、Discord、iMessage 等)
  4. 控制面板 —— 可通过 openclaw dashboard 在浏览器中访问管理界面

常用环境变量

变量说明
OPENCLAW_HOME设置内部路径解析根目录
OPENCLAW_STATE_DIR覆盖状态文件存储位置
OPENCLAW_CONFIG_PATH覆盖配置文件路径

验证部署状态

# 检查 Gateway 运行状态 openclaw gateway status # 打开控制面板 openclaw dashboard # 发送测试消息 openclaw message send "Hello"

Gateway 默认端口为 18789,控制面板地址为 http://127.0.0.1:18789/。若端口冲突,可通过环境变量修改。


技能与扩展

OpenClaw 支持通过 ClawHub 安装社区技能,也支持 AI 自动创建新技能。

安装技能示例:

openclaw skill install<skill-name>

七牛云为 Claude Code 等开发者工具提供了 Skills 模块化扩展系统文档,其中包含与 OpenClaw 类似的 Skill 设计模式,可供参考迁移。


常见问题

Q:OpenClaw 部署后数据存储在哪里?
所有数据(记忆、技能、配置、对话历史)均存储在本地设备,默认路径由 OPENCLAW_HOME 环境变量控制。无任何数据上传至 OpenClaw 官方服务器,满足高隐私要求场景。

Q:OpenClaw 可以完全离线运行吗?
可以。配置本地模型(如 Ollama 管理的 LLaMA、Mistral 等)后,OpenClaw 可在无网络环境下运行。但安装阶段及调用云端 API(Claude/GPT)时需要网络连接。

Q:OpenClaw 和 Cursor、Claude Code 有什么区别?
Cursor 和 Claude Code 专注于代码编写场景,而 OpenClaw 是通用型 AI 自动化助手,面向邮件、日历、文件管理等日常工作流。三者可互补使用:OpenClaw 负责日常任务自动化,Claude Code 专注于编程任务。

Q:如何更换 AI 模型?
编辑配置文件(路径由 OPENCLAW_CONFIG_PATH 控制)或通过 openclaw dashboard 界面切换模型提供商和 API Key。支持随时切换 Claude、GPT 或本地模型,无需重新安装。

Q:OpenClaw 支持多用户或服务器端部署吗?
当前版本主要面向单用户本地部署。如需团队共享或服务器端运行,需结合 --install-daemon 守护进程模式及反向代理自行配置;官方多用户方案 [数据待核实:建议关注 OpenClaw GitHub 路线图] 尚在规划中。


总结

OpenClaw 是目前最完整的开源本地 AI 个人助手部署方案之一,通过一行命令即可在 macOS、Windows 或 Linux 上完成部署,并通过 ClawHub 生态持续扩展能力边界。其本地优先、数据自主的设计理念,使其在隐私敏感场景下具备明显优势。

据 OpenClaw 官方文档(docs.openclaw.ai)说明,Gateway + Channel + Skills 三层架构是其核心设计,确保了可扩展性与隐私性的平衡。对于需要调用 Claude 等顶级模型的用户,七牛云 AI 推理服务(portal.qiniu.com/ai-inference/api-key)提供兼容 Anthropic API 标准的接入方式,新用户可获最高 600 万免费 Token,是降低 OpenClaw 使用成本的有效途径。

本文内容基于 2026 年 3 月数据,OpenClaw 处于活跃开发阶段,建议定期查阅 docs.openclaw.ai 获取最新配置说明。

Read more

安装 启动 使用 Neo4j的超详细教程

安装 启动 使用 Neo4j的超详细教程

最近在做一个基于知识图谱的智能生成项目。需要用到Neo4j图数据库。写这篇文章记录一下Neo4j的安装及其使用。 一.Neo4j的安装 1.首先安装JDK,配环境变量。(参照网上教程,很多) Neo4j是基于Java的图形数据库,运行Neo4j需要启动JVM进程,因此必须安装JAVA SE的JDK。从Oracle官方网站下载 Java SE JDK。我使用的版本是JDK1.8 2.官网上安装neo4j。 官方网址:https://neo4j.com/deployment-center/  在官网上下载对应版本。Neo4j应用程序有如下主要的目录结构: bin目录:用于存储Neo4j的可执行程序; conf目录:用于控制Neo4j启动的配置文件; data目录:用于存储核心数据库文件; plugins目录:用于存储Neo4j的插件; 3.配置环境变量 创建主目录环境变量NEO4J_HOME,并把主目录设置为变量值。复制具体的neo4j文件地址作为变量值。 配置文档存储在conf目录下,Neo4j通过配置文件neo4j.conf控制服务器的工作。默认情况下,不需

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

Flowise物联网融合:与智能家居设备联动的应用设想

Flowise物联网融合:与智能家居设备联动的应用设想 1. Flowise:让AI工作流变得像搭积木一样简单 Flowise 是一个真正把“AI平民化”落地的工具。它不像传统开发那样需要写几十行 LangChain 代码、配置向量库、调试提示词模板,而是把所有这些能力打包成一个个可拖拽的节点——就像小时候玩乐高,你不需要懂塑料怎么合成,只要知道哪块该拼在哪,就能搭出一座城堡。 它诞生于2023年,短短一年就收获了45.6k GitHub Stars,MIT协议开源,意味着你可以放心把它用在公司内部系统里,甚至嵌入到客户交付的产品中,完全不用担心授权问题。最打动人的不是它的技术多炫酷,而是它真的“不挑人”:产品经理能搭出知识库问答机器人,运营同学能配出自动抓取竞品文案的Agent,连刚学Python两周的实习生,也能在5分钟内跑通一个本地大模型的RAG流程。 它的核心逻辑很朴素:把LangChain里那些抽象概念——比如LLM调用、文档切分、向量检索、工具调用——变成画布上看得见、摸得着的方块。你拖一个“Ollama LLM”节点,再拖一个“Chroma Vector

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,