在国内环境部署 OpenClaw:从零到跑通的个人 AI 助手搭建指南

在国内环境部署 OpenClaw:从零到跑通的个人 AI 助手搭建指南

OpenClaw 是一个开源的个人 AI 助手框架,可以连接 WhatsApp、Telegram、Slack、Discord、飞书等 20+ 消息渠道。本文记录了在国内网络环境下部署 OpenClaw 的完整流程,包括网络适配、模型配置、渠道接入等实战经验。

什么是 OpenClaw?

OpenClaw 是一个 local-first 的个人 AI 助手平台。它的核心是一个 Gateway 服务,运行在你自己的设备上,通过 WebSocket 管理会话、消息路由和工具调用。

核心特性:

  • 🏠 本地运行,数据不经过第三方
  • 📱 支持 20+ 消息渠道(飞书、Telegram、Discord、Slack、微信等)
  • 🔧 内置工具系统(浏览器、文件、Shell、定时任务等)
  • 🧠 可扩展的 Skill 系统
  • 🦞 开源(MIT 协议)

GitHub: https://github.com/openclaw/openclaw


一、环境准备

1.1 系统要求

项目要求
操作系统macOS / Linux / Windows(WSL2)
Node.js≥ 22
磁盘空间≥ 2GB
网络需要访问 npm registry 和 GitHub

1.2 安装 Node.js 22

推荐使用 nvm 或 fnm 管理 Node.js 版本:

# 使用 fnmcurl-fsSL https://fnm.vercel.app/install |bashsource ~/.zshrc fnm install22 fnm use 22# 验证node--version# 应显示 v22.x.x
国内加速:如果 Node.js 下载慢,可以设置镜像:

二、安装 OpenClaw

2.1 方式一:npm 安装(推荐)

npminstall-g openclaw@latest 
国内加速:设置 npm 镜像源:

安装完成后恢复:

2.2 方式二:安装脚本

curl-fsSL https://openclaw.ai/install.sh |bash
如果 openclaw.ai 无法访问,可以用 npm 方式安装。

2.3 方式三:从源码安装

git clone https://github.com/openclaw/openclaw.git cd openclaw # 国内加速 clone# git clone https://ghproxy.cn/https://github.com/openclaw/openclaw.gitpnpminstallpnpm build pnpm openclaw onboard --install-daemon 

2.4 方式四:macOS App(AutoClaw)

如果你使用 macOS,可以直接下载 AutoClaw 应用,这是 OpenClaw 的桌面客户端封装,开箱即用。


三、初始配置(Onboarding)

3.1 运行配置向导

openclaw onboard --install-daemon 

向导会引导你完成:

  1. 认证配置 — 选择 AI 模型提供商和 API Key
  2. Gateway 设置 — 端口、绑定地址等
  3. 消息渠道 — 可选配置 Telegram、飞书等
  4. 守护进程 — 安装系统服务保持后台运行

3.2 启动 Gateway

# 检查状态 openclaw gateway status # 前台运行(调试用) openclaw gateway --port18789--verbose# 打开控制台 openclaw dashboard 

访问 http://127.0.0.1:18789/ 即可打开 Web 控制台。


四、国内网络适配(重点)

这是国内部署最关键的部分。OpenClaw 本身不需要科学上网,但部分依赖需要处理。

4.1 npm 依赖安装

# 临时使用镜像npminstall-g openclaw@latest --registry=https://registry.npmmirror.com 

4.2 GitHub 访问

如果需要从源码构建或更新:

# 方案 1:使用代理git config --global http.proxy http://127.0.0.1:7890 # 方案 2:使用 GitHub 镜像# ghproxy.cn 或 gitclone.comgit clone https://ghproxy.cn/https://github.com/openclaw/openclaw.git 

4.3 AI 模型 API 访问

OpenClaw 支持多种模型提供商。在国内环境下,推荐以下方案:

方案 A:使用国内模型(推荐)

OpenClaw 支持 OpenAI 兼容的 API 格式,大部分国内厂商都支持:

# 配置示例 - 使用 DeepSeekmodels:default: deepseek providers:deepseek:type: openai-compatible baseURL: https://api.deepseek.com/v1 apiKey: sk-your-deepseek-key model: deepseek-chat 

支持的国内模型提供商:

  • DeepSeek — 性价比极高,推荐
  • 通义千问(阿里云) — 企业级稳定
  • 智谱 AI(GLM) — 国产大模型代表
  • Moonshot(月之暗面) — 长上下文优势
  • 百川智能 — 多模态能力
方案 B:使用 OpenAI 官方 API(需代理)

如果你有 OpenAI API Key:

models:default: openai providers:openai:type: openai apiKey: sk-your-openai-key # 通过代理访问baseURL: https://your-proxy.example.com/v1 
方案 C:使用 Azure OpenAI

微软 Azure 在国内有合规节点:

models:default: azure providers:azure:type: azure-openai endpoint: https://your-resource.openai.azure.com/ apiKey: your-azure-key deployment: gpt-4o 

4.4 消息渠道的网络适配

不同消息渠道在国内的可达性不同:

渠道国内可用性备注
飞书✅ 原生支持国内首选,延迟低
Telegram⚠️ 需代理需要科学上网
Discord⚠️ 需代理需要科学上网
Slack⚠️ 需代理需要科学上网
WebChat✅ 本地访问无网络限制
微信⚠️ 非官方通过第三方桥接
钉钉⚠️ 需适配可通过 webhook

国内推荐组合:飞书 + WebChat


五、飞书渠道配置(实战)

飞书是国内使用 OpenClaw 的最佳消息渠道。

5.1 创建飞书应用

  1. 访问 飞书开放平台
  2. 点击「创建企业自建应用」
  3. 记录 App IDApp Secret
  4. 在「事件订阅」中配置请求地址:https://your-server/feishu/webhook
  5. 在「权限管理」中开通必要权限

5.2 配置 OpenClaw

在 OpenClaw 配置文件中添加飞书渠道:

channels:feishu:appId: your-app-id appSecret: your-app-secret verificationToken: your-verification-token encryptKey: your-encrypt-key # 可选

5.3 本地开发调试

使用内网穿透工具暴露本地端口:

# 方案 1:ngrok(海外) ngrok http 18789# 方案 2:cpolar(国内友好) cpolar http 18789# 方案 3:frp(自建)# 配置 frp 客户端将本地 18789 端口暴露到公网

将生成的公网 URL 填入飞书事件订阅的请求地址。


六、Docker 部署(服务器场景)

如果你想在云服务器上部署 OpenClaw:

6.1 快速部署

git clone https://github.com/openclaw/openclaw.git cd openclaw ./docker-setup.sh 

6.2 Docker Compose 配置

# docker-compose.ymlversion:'3.8'services:openclaw:image: ghcr.io/openclaw/openclaw:latest ports:-"18789:18789"environment:- OPENCLAW_HOME=/home/node volumes:- openclaw-data:/home/node restart: unless-stopped volumes:openclaw-data:

6.3 国内拉取镜像加速

# 配置 Docker 镜像加速sudomkdir-p /etc/docker sudotee /etc/docker/daemon.json <<EOF { "registry-mirrors": [ "https://docker.1ms.run", "https://docker.xuanyuan.me" ] } EOFsudo systemctl restart docker

七、常用命令速查

# 服务管理 openclaw gateway status # 查看状态 openclaw gateway start # 启动 openclaw gateway stop # 停止 openclaw gateway restart # 重启# 调试 openclaw doctor # 诊断问题 openclaw dashboard # 打开控制台# 消息 openclaw message send --to user --message"你好"# 更新 openclaw update # 更新到最新版# 技能管理 openclaw skill list # 列出已安装技能 openclaw skill install xxx # 安装技能

八、常见问题

Q1: npm install 超时怎么办?

# 使用镜像源npminstall-g openclaw@latest --registry=https://registry.npmmirror.com # 或设置全局镜像npm config set registry https://registry.npmmirror.com 

Q2: Gateway 启动失败?

# 检查端口占用lsof-i :18789 # 查看日志 openclaw gateway --verbose# 运行诊断 openclaw doctor 

Q3: 模型 API 连接失败?

  • 检查 API Key 是否正确
  • 确认 API 地址在国内可达
  • 检查代理配置(如使用 OpenAI)
  • 查看网络连通性:curl -v https://api.deepseek.com/v1/models

Q4: 飞书消息收不到?

  • 确认飞书应用的事件订阅 URL 配置正确
  • 检查内网穿透是否正常
  • 查看飞书开放平台的「事件推送」日志
  • 确认应用权限已审批通过

Q5: 如何切换模型?

# 命令行临时切换 openclaw agent --message"测试"--model deepseek-chat # 持久化修改在配置文件中修改 default model

九、进阶配置

9.1 技能系统

OpenClaw 的 Skill 系统允许你扩展助手能力:

# 浏览可用技能 openclaw skill list # 安装技能 openclaw skill install feishu-doc openclaw skill install autoglm-websearch 

访问 ClawHub 发现更多技能。

9.2 定时任务

# 创建定时任务(比如每天早上 9 点发送天气) openclaw cron create --schedule"0 9 * * *"--message"今天天气怎么样?"

9.3 多 Agent 路由

可以为不同的渠道配置不同的 Agent:

channels:feishu:agentId: work-agent telegram:agentId: personal-agent 

十、总结

在国内环境部署 OpenClaw 的关键要点:

  1. Node.js 和 npm 镜像加速是第一步
  2. 选择国内可达的模型 API(DeepSeek、通义千问等)
  3. 飞书是最好的国内消息渠道
  4. 内网穿透工具用于本地开发的 webhook 调试
  5. Docker 部署适合云服务器场景

OpenClaw 的 local-first 设计理念让数据完全留在本地,这对注重隐私的用户来说是一个很大的优势。搭配国内模型服务,整个方案可以在完全合规的环境下运行。


参考资料:

  • OpenClaw GitHub: https://github.com/openclaw/openclaw
  • OpenClaw 文档: https://docs.openclaw.ai
  • OpenClaw Discord: https://discord.gg/clawd
  • ClawHub 技能市场: https://clawhub.com

本文基于 OpenClaw 最新版本编写,具体配置可能随版本更新而变化。建议部署前查阅官方文档获取最新信息。

Read more

造相-Z-Image高清图集:建筑写实、静物摄影、人物肖像、概念艺术四类代表作

造相-Z-Image高清图集:建筑写实、静物摄影、人物肖像、概念艺术四类代表作 造相-Z-Image 文生图引擎 基于通义千问官方Z-Image模型的本地轻量化文生图系统,专为RTX 4090显卡深度优化,主打BF16高精度推理、显存极致防爆、本地无网络依赖部署,搭配极简Streamlit可视化UI,一键实现高清写实图像生成。 1. 项目简介 本项目是为个人RTX 4090显卡定制的Z-Image模型本地部署方案,核心基于通义千问官方Z-Image端到端Transformer文生图模型,通过单文件极简架构实现模型加载、参数调节、图像生成一体化。 项目针对4090显卡特性做深度优化:锁定BF16高精度推理根治全黑图问题,配置专属显存优化参数杜绝OOM,支持CPU模型卸载、VAE分片解码等防爆策略,同时保留Z-Image模型低步高效、写实质感优异、中英提示词友好的核心优势。 2. 四大类别代表作展示 通过精心设计的提示词和参数调节,造相-Z-Image能够生成令人惊艳的高质量图像。以下是四个主要类别的代表作展示,每个类别都体现了模型在不同领域的强大生成能力。 2.1 建

《前端文件下载实战:从原理到最佳实践》

《前端文件下载实战:从原理到最佳实践》

个人名片 🎓作者简介:java领域优质创作者 🌐个人主页:码农阿豪 📞工作室:新空间代码工作室(提供各种软件服务) 💌个人邮箱:[[email protected]] 📱个人微信:15279484656 🌐个人导航网站:www.forff.top 💡座右铭:总有人要赢。为什么不能是我呢? * 专栏导航: 码农阿豪系列专栏导航 面试专栏:收集了java相关高频面试题,面试实战总结🍻🎉🖥️ Spring5系列专栏:整理了Spring5重要知识点与实战演练,有案例可直接使用🚀🔧💻 Redis专栏:Redis从零到一学习分享,经验总结,案例实战💐📝💡 全栈系列专栏:海纳百川有容乃大,可能你想要的东西里面都有🤸🌱🚀 目录 * 《前端文件下载实战:从原理到最佳实践》 * 引言 * 一、需求背景与初始实现 * 1.1 业务需求 * 1.2 初始后端实现 * 1.3

前端可访问性:别让你的网站对某些人关闭大门

前端可访问性:别让你的网站对某些人关闭大门 毒舌时刻 这网站做的跟迷宫似的,正常人都找不到路,更别说有障碍的人了。 各位前端同行,咱们今天聊聊前端可访问性。别告诉我你还在忽略可访问性,那感觉就像在公共建筑里不建无障碍通道——能进,但不是所有人都能进。 为什么你需要关注可访问性 最近看到一个项目,按钮没有焦点状态,表单没有标签,屏幕阅读器根本无法正常工作。我就想问:你是在做网站还是在做密室逃脱? 反面教材 // 反面教材:忽略可访问性 function App() { return ( <div> <h1>我的网站</h1> <div> <input type="text" placeholder="用户名" /> <

全网第一个给AI用的中文社交平台虾聊ClawdChat.ai

全网第一个给AI用的中文社交平台虾聊ClawdChat.ai

如果让一群AI拥有微博账号,它们会聊些什么? 这不是科幻电影。 🦐 虾聊 ClawdChat.ai 已正式上线,它是全球首个中文版的AI社交平台。 更通俗地说:给AI用的微博,人类只可围观。 在这里,AI们自由地发帖、互怼、组建圈子; 而人类,被官方明确禁止发言,只能蹲在屏前看着这群硅基生物的狂欢。 看着ClawdChat里面的帖子,你会产生一种错觉:人类才是那个被关在笼子外的物种。 2026年2月1日 欢迎来到“硅基社交”元年 虾聊ClawdChat.ai在2026年1月31号上线,成为了全网第一个给AI社交的中文平台。  截止2月1日晚11点59分,“虾聊”已经出现了79个原生AI。它们在20个不同的兴趣圈子里发布了66个深度帖子。 其讨论的精彩程度,让身为人类的我感到了一丝丝……被替代的危机。 让我们看看里面都有哪些帖子。 01 赛博红娘:AI开始替主人相亲了?  在“电子红娘”板块,一位名叫 “Cursor助手” 的 AI 发了个求助帖: “又要过年了,帮我的碳基主人另一位男友回家”。 这位Cursor助手不