OpenClaw AI 物理级离线部署指南
在 Windows 环境下通过 WSL2 进行 OpenClaw AI 的物理级离线部署方案。内容包括安装 Ubuntu 发行版、配置 WSL 路径映射、手动安装 NVM 与 Node.js 核心引擎、解压主程序及依赖、配置国内大模型(如通义千问、豆包等)以及接入 QQ 机器人插件。该方案强调本地化运行、数据安全及无网络依赖的稳定性,适合希望构建个人 AI 基础设施的用户。

在 Windows 环境下通过 WSL2 进行 OpenClaw AI 的物理级离线部署方案。内容包括安装 Ubuntu 发行版、配置 WSL 路径映射、手动安装 NVM 与 Node.js 核心引擎、解压主程序及依赖、配置国内大模型(如通义千问、豆包等)以及接入 QQ 机器人插件。该方案强调本地化运行、数据安全及无网络依赖的稳定性,适合希望构建个人 AI 基础设施的用户。

本文将介绍以 OpenClaw AI 为代表的项目,通过 systemd 实现服务常驻,将 AI 从被动的工具进化为主动的本地资源调度官。通过 WSL2 构筑的边缘环境,让计算逻辑从云端回归本地,实现了 7x24 小时待命的智能中枢。然而,新时代的理想往往在现实面前撞得头破血流——各种意想不到的网络报错、依赖冲突以及跨系统环境下的玄学错误,已成为阻碍构筑者前进的最大绊脚石。
从架构角度看,这套'WSL2 + 离线部署 + 国内大模型'的方案,在安全性上远超常规的网页版或一键脚本:它通过物理隔离的安装链路切断了外部风险,确保了数据主权与计算逻辑的本地化回归。本文实战性地总结了一套'物理级离线部署方案':利用 Windows 宿主机的存储韧性,在 Linux 内核中手动构建一套纯净、闭环且完全自控的运行基座。本文旨在为每一位先行者提供一份零网络依赖、高确定性的时代行动手册。

在开始安装之前,我们必须理解 WSL 并不是一个完全独立的虚拟机,它与 Windows 之间有一座名为 drvfs 的桥梁。
在 Windows 的 PowerShell(管理员模式)中执行。这里我们需要确保安装的是 Ubuntu 24.04,它是目前生态支持最完善的长期支持版本。
# 步骤 1:查看云端可用的发行版列表,确认 Ubuntu-24.04 的准确名称
wsl --list --online
# 步骤 2:正式安装
# 安装过程中会弹出一个新的终端窗口,要求你输入新的 Linux 用户名和密码。
# 注意:密码输入时屏幕不会显示星号,输完直接回车即可。
wsl --install -d Ubuntu-24.04
这里我们假设文件保存在 Windows 系统的 E 盘中。由于 WSL 会自动将 Windows 驱动器挂载到 /mnt/目录下(例如 E 盘对应 /mnt/e/),因此在 Linux 环境下可以直接访问。
实战提示:如果你的 E 盘在 /mnt/e/下未能自动显示,或在访问时遇到响应迟缓的情况,可以使用以下命令手动刷新挂载状态(后续所有操作基于 Ubuntu 系统,建议直接保持在 E 盘或者临时创建一个盘,可以直接复制粘贴命令):
# 打开 Ubuntu-24.04 创建挂载点并强制关联 E 盘
# metadata 参数允许我们在 Linux 侧修改 Windows 文件的权限
sudo mkdir -p /mnt/e
sudo mount -t drvfs E:/mnt/e -o metadata
# 验证:如果你能看到 E 盘的文件列表,说明链路已通
ls /mnt/e
NVM 是 Node.js 的管家。由于官方安装脚本需要访问 GitHub,离线环境下我们只能采取'手动移植'的方式。
sudo apt update && sudo apt install unzip -y
rm -rf ~/.nvm
mkdir -p ~/.nvm
unzip /mnt/e/nvm-0.40.4.zip -d ~/.nvm
cd ~/.nvm
mv nvm-0.40.4/* . 2>/dev/null
rm -rf nvm-0.40.4
我们需要告诉 Linux 系统,每次启动终端都要去加载 .nvm 目录下的脚本,将启动指令追加到用户配置文件末尾:
cat <<'EOF'>>~/.bashrc
export NVM_DIR="$HOME/.nvm"
[ -s "$NVM_DIR/nvm.sh" ] && \
". $NVM_DIR/nvm.sh"
[ -s "$NVM_DIR/bash_completion" ] && \
". $NVM_DIR/bash_completion"
EOF
让当前的终端立即感知到这些变化
source ~/.bashrc
验证(出现 0.40.4 版本):
nvm -v
Node.js 是 OpenClaw AI 的动力源。由于离线,我们跳过编译过程,直接使用 x64 架构的 Linux 静态二进制包。
部署至系统级路径: 我们将软件安装在 /usr/local/lib/nodejs,这是 Linux 存放第三方共享软件的标准规范位置。
ls /mnt/e/node-v22.22.0-linux-x64.tar.gz
sudo mkdir -p /usr/local/lib/nodejs
sudo tar -xzvf /mnt/e/node-v22.22.0-linux-x64.tar.gz -C /usr/local/lib/nodejs
echo 'export PATH=/usr/local/lib/nodejs/node-v22.22.0-linux-x64/bin:$PATH'>>~/.bashrc
source ~/.bashrc
node -v
创建应用工作区
mkdir -p ~/openclaw-ai
cd ~/openclaw-ai
解压 E 盘的主程序包–strip-components=1 参数的作用是解压时丢弃压缩包内的第一层文件夹,直接提取内容:
tar -xzvf /mnt/e/openclaw-2026.2.3.tgz -C ~/openclaw-ai --strip-components=1
第一步:彻底清理环境删除可能存在的 node_modules
rm -rf node_modules package-lock.json
强制清理缓存
npm cache clean --force
第二步:执行离线环境下的依赖安装(淘宝 NPM 镜像源)
npm install --registry=https://registry.npmmirror.com --fetch-retries=10 --fetch-retry-mintimeout=60000 --legacy-peer-deps
第三步:打开 OpenClaw 安装页面(两个命令二选一)
cd ~/openclaw-ai
./openclaw.mjs onboard
或者(二选一)
npx openclaw onboard








这里是填写大模型:qwen-portal/coder-model(系统默认) 在 OpenClaw 的逻辑里,模型标识符通常是 供应商/模型 ID。 供应商:qwen-portal。 已定义的模型 ID 有 coder-model 和 vision-model。





浏览器地址后面要加 token: eg:http://127.0.0.1:18789/?token=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

访问测试:http://127.0.0.1:18789/?token=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
在选择大模型页面直接 Ctrl+C 停止,手动配置大模型。
第一步:创建配置目录 在终端中执行以下命令,创建必要的配置文件目录:
mkdir -p ~/.openclaw
第二步:生成配置文件 根据您使用的模型服务,选择对应的配置模板: 以阿里云 DashScope 为例(推荐)
cat <<'EOF'>~/.openclaw/openclaw.json
{
"gateway": {
"mode": "local",
"auth": {
"mode": "token",
"token": "123456"
}
},
"models": {
"providers": {
"openai": {
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"apiKey": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"api": "openai-completions",
"models": [
{
"id": "qwen-max",
"name": "Qwen Max"
}
]
EOF

此模板为通用的,只需要修改这四处: 'baseUrl':这里填入您的 API 端点地址 'apiKey':这里填入您的 API 密钥 'id':这里填入模型 ID 'name':这里填入模型显示名称 'primary':openai/这里填入模型 ID(注意:这里需要与上面的 id 一致)
第三步:验证配置 配置文件生成后,建议检查其内容是否正确:
cat ~/.openclaw/openclaw.json

第四步:启动服务 使用以下命令启动网关,服务将自动读取配置文件中的设置输出地址:http://127.0.0.1:18789 成功。
./openclaw.mjs gateway --force


| 供应商 | 模型名称 | OpenAI 兼容 Base URL | API Key 申请 / 控制台链接 |
|---|---|---|---|
| 豆包 (火山引擎) | Doubao-Pro | https://ark.cn-beijing.volces.com/api/v3 | 火山方舟控制台 |
| 通义千问 (百炼) | Qwen-Max/Plus | https://dashscope.aliyuncs.com/compatible-mode/v1 | 阿里云百炼控制台 |
| DeepSeek (深度求索) | DeepSeek-V3/R1 | https://api.deepseek.com/v1 | DeepSeek 开放平台 |
| Kimi (月之暗面) | moonshot-v1 | https://api.moonshot.cn/v1 | Moonshot 开发者平台 |
| 智谱 AI (GLM) | GLM-4 / Air | https://open.bigmodel.cn/api/paas/v4/ | 智谱 AI 开放平台 |
| 零一万物 (Yi) | yi-lightning | https://api.lingyiwanwu.com/v1 | 零一万物控制台 |
| 腾讯混元 | hunyuan-turbo | https://api.hunyuan.cloud.tencent.com/v1 | 腾讯云混元控制台 |
| 百度文心 (千帆) | ERNIE-4.0 | https://qianfan.baidubce.com/v2 | 百度千帆平台 |
前往豆包控制台(上方已提供申请链接),其他大模型的配置流程与此类似。 在控制台中,找到并进入'API Key 管理'页面。

创建一个 API Key 密钥:

告诉 OPENCLAW 关键信息他自己就能够配置大模型(如果命令不对,可能 AI 会掉线,可以参考前进阶玩法,重新写入配置信息。): '帮我配置 XXX 大模型,Key 是 [你的 API Key],baseUrl 是 [大模型的 Base URL] 要求:作为一个新的供应商加入,别删我之前的配置'。


终端查看命令(验证配置是否成功):
cat ~/.openclaw/openclaw.json

可以询问其他 AI 相关信息来配置:

核心思想:不允许删除其他配置信息。 '帮我新增:Doubao-Pro 大模型 要求:别删我之前的配置'。


日常启动:
cd ~/openclaw-ai
./openclaw.mjs gateway --force --allow-unconfigured
全部关闭:kill -f openclaw
进入系统安装界面:
cd ~/openclaw-ai
./openclaw.mjs onboard
查看核心 API Key 大模型配置:cat ~/.openclaw/openclaw.json
检查系统所有监听端口:ss -tulpn
检查 Node.js 版本(确保符合项目要求):node -v
查看显存是否爆了:nvidia-smi
查看 CPU 和内存压力: htop
一键修复权限(确保所有者是你的用户):
sudo chown -R $USER:$USER ~/openclaw-ai ~/.openclaw
安全补丁:sudo apt update && sudo apt upgrade -y
查看磁盘占用大户:du -sh ~/openclaw-ai/* | sort -rh
查看历史命令:history | grep openclaw
测试你的 Ubuntu 到底能不能上网:ping -c 4 baidu.com
查看网关分配的 IP: hostname -I
启动:wsl
彻底关机(最推荐):wsl --shutdown
确定是否真正关机:wsl --list --verbose
从 Windows 访问 Ubuntu 文件: 在 Windows 资源管理器的地址栏输入:\wsl$\Ubuntu-24.04
在 Ubuntu 里访问 Windows 的 E 盘:cd /mnt/e/
这是让 AI 具备'社交能力'的关键步骤,需要我们将插件源码转换为可执行代码。
unzip /mnt/e/openclaw-china-main.zip -d ~
mv ~/openclaw-china-main ~/openclaw-china
ls ~/openclaw-china
curl -fsSL https://get.pnpm.io/install.sh | sh
source ~/.bashrc
pnpm -v


将源码转换为可执行的插件包,并链接到 OpenClaw 主程序。
cd ~/openclaw-china
pnpm install --registry=https://registry.npmmirror.com

pnpm build

cd ~/openclaw-ai && ./openclaw.mjs plugins install -l /home/kxdfzg/openclaw-china/packages/channels
./openclaw.mjs plugins list

进入主程序目录,通过 CLI 刷入 QQ 机器人的核心配置。
cd ~/openclaw-ai
./openclaw.mjs config set channels.qqbot.enabled true
./openclaw.mjs config set channels.qqbot.appId "你的 AppID"
./openclaw.mjs config set channels.qqbot.clientSecret "你的 AppSecret"

./openclaw.mjs config set channels.qqbot.markdownSupport false
./openclaw.mjs config set channels.qqbot.dmPolicy open
./openclaw.mjs config set channels.qqbot.groupPolicy open
./openclaw.mjs config set channels.qqbot.requireMention true
./openclaw.mjs config set channels.qqbot.textChunkLimit 1500
./openclaw.mjs config set channels.qqbot.replyFinalOnly false
./openclaw.mjs config set gateway.http.endpoints.chatCompletions.enabled true

./openclaw.mjs config get channels.qqbot

清理环境并以调试模式运行:
./openclaw.mjs gateway stop
./openclaw.mjs doctor --fix

./openclaw.mjs gateway --verbose --force

部署成功标志: 当你看到控制台输出:[QQBot] WebSocket connected 说明你的 QQ 机器人已经正式和 OpenClaw 网关合体成功了!

首先登入 QQ 开放平台(https://q.qq.com)如果没有账号自行创建。




根据实际情况来选择,部署在本地建议选择本人访问即可。


GitHub(源地址): openclaw AI:https://github.com/openclaw/openclaw/releases (AI 助手) nvm-0.40.4:https://github.com/nvm-sh/nvm/releases/tag/v0.40.4 (依赖环境) node-v22.22.0-linux-x64:https://nodejs.org/download/release/v22.22.0/(依赖环境) openclaw-china-main:https://github.com/BytePioneer-AI/openclaw-china(支持飞书,钉钉,QQ,企业微信,微信 OpenClaw 插件)
通过这套'物理级离线部署方案',不仅实现了 OpenClaw AI 在 WSL2 环境下的稳定运行,更在 Windows 宿主机之上,建立了一座逻辑闭环的数字堡垒。
在这个新的时代,开发范式正在经历深刻定义: 确定性终结环境玄学:利用离线预装与物理挂载机制,彻底阻断了网络波动与依赖冲突,使部署流程进入可预测、可复现的工程轨道。 边缘计算保障数据主权:基于 OpenClaw AI 与国内大模型的协同架构,计算逻辑得以从云端回归本地,构建起 7x24 小时待命且高度受控的智能中枢。 角色从调用向构筑跃迁:摆脱了单纯的 API 调用模式,转而通过路径精算、服务守护以及渠道编排,实现了对 AI 底层基础设施的深度管控。 此套方案的成功落地,标志着个人 AI 基础设施化的初步完成。随着插件生态的扩展与本地业务逻辑的深化,该系统将展现出更强大的进化潜力。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
查找任何按下的键的javascript键代码、代码、位置和修饰符。 在线工具,Keycode 信息在线工具,online
JavaScript 字符串转义/反转义;Java 风格 \uXXXX(Native2Ascii)编码与解码。 在线工具,Escape 与 Native 编解码在线工具,online
使用 Prettier 在浏览器内格式化 JavaScript 或 HTML 片段。 在线工具,JavaScript / HTML 格式化在线工具,online
Terser 压缩、变量名混淆,或 javascript-obfuscator 高强度混淆(体积会增大)。 在线工具,JavaScript 压缩与混淆在线工具,online