云服务器部署 OpenClaw 完全指南:从零搭建 7×24 小时 AI 助手

云服务器部署 OpenClaw 完全指南:从零搭建 7×24 小时 AI 助手

云服务器部署 OpenClaw 完全指南:从零搭建 7×24 小时 AI 助手

适用版本: OpenClaw v2026.x | 难度: 中级 | 预计耗时: 15-30 分钟

一、项目简介与架构

OpenClaw 是一个开源的自主智能体(Autonomous Agent)框架,支持通过自然语言指令执行跨平台自动化任务。相比本地部署,云服务器部署可实现:

  • 7×24 小时在线:无需保持本地设备开机
  • 公网访问:支持 Webhook 回调和远程控制
  • 多平台接入:Telegram、飞书、Discord、WhatsApp 等

系统要求

配置项最低要求推荐配置
CPU1 核2 核+
内存2 GB4 GB
存储20 GB SSD40 GB+ NVMe
系统Ubuntu 22.04 LTSUbuntu 24.04 LTS
Node.jsv22+v22 LTS

二、部署方式一:应用镜像一键部署(推荐新手)

适用于阿里云、百度云等提供 OpenClaw 镜像的厂商:

步骤 1:创建实例

  1. 进入云服务器控制台,选择「轻量应用服务器」
  2. 镜像选择:应用模板 > OpenClaw(或 Clawdbot)
  3. 地域:建议国内用户选择「香港」或就近地域,海外用户选「弗吉尼亚」
  4. 确认订单并支付

步骤 2:获取 API 密钥

  1. 登录阿里云百炼大模型控制台(或对应厂商的 AI 平台)
  2. 进入「密钥管理」→「创建 API-Key」
  3. 立即复制保存,此密钥仅显示一次

步骤 3:配置与启动

  1. 进入服务器「应用管理」标签页
  2. 点击「一键开通」完成千帆大模型等服务授权
  3. 放通防火墙:点击「一键放行」开放 18789 端口(Web 控制台默认端口)
  4. 点击「一键配置」,粘贴刚才获取的 API-Key
  5. 执行命令生成访问 Token

步骤 4:访问使用

点击「打开网站页面」,输入生成的 Token,即可进入 OpenClaw Web 对话界面。

四、部署方式二:Linux 手动部署(通用方案)

适用于 AWS、Hetzner、Vultr 等裸机服务器,或希望自定义配置的用户。

4.1 服务器初始化

连接服务器

# 修改密钥文件权限(如使用 SSH 密钥)chmod600 ~/Downloads/your-key.pem # 连接(以 Ubuntu 为例)ssh -i ~/Downloads/your-key.pem ubuntu@你的服务器公网IP 

创建 Swap 内存(关键步骤)
2GB 内存直接安装可能因 OOM 导致卡死,建议创建 4GB Swap:

# 创建 Swap 文件 fallocate -l 4G ~/swapfile chmod600 ~/swapfile sudomkswap ~/swapfile # 永久挂载echo"$HOME/swapfile none swap sw 0 0"|sudotee -a /etc/fstab sudoswapon --all # 验证free -h 

4.2 环境准备

安装 Node.js 22+

# 使用 nvm 安装(推荐)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bashsource ~/.bashrc nvm installnode# 验证版本node --version # 应显示 v22.x.x

安装系统依赖

sudoapt update &&sudoapt upgrade -y sudoaptinstall -y libatomic1 # 解决 libatomic.so.1 缺失问题

4.3 安装 OpenClaw

方式一:一键脚本(推荐)

curl -fsSL https://openclaw.ai/install.sh |bash

方式二:npm 安装

npminstall -g openclaw@latest # 或使用 pnpm(内存占用更低)# pnpm add -g openclaw@latest

4.4 配置与初始化

运行引导向导

openclaw onboard --install-daemon 

按提示完成配置:

  1. Onboarding mode: 选择 QuickStart
  2. Model provider: 选择你的 LLM 服务商
    • 国内用户:阿里云百炼、DeepSeek
    • 国际用户:Anthropic (Claude)、OpenAI、Google Gemini
    • 免费体验:可选择 kimi-k2.5-free(速率限制较严)
  3. Channel: 选择 IM 平台(Telegram、飞书、Discord 等)
  4. Daemon 安装:选择 yes 以安装 systemd 服务

飞书接入示例

  • 在飞书开放平台创建应用
  • 获取 App IDApp Secret
  • 在向导中填入凭证完成配对

4.5 系统服务化配置

--install-daemon 参数会自动创建 systemd 服务。验证状态:

# 查看服务状态 systemctl --user status openclaw # 设置开机自启(关键命令)sudo loginctl enable-linger $USER

手动创建服务(如需要)

# 创建服务文件mkdir -p ~/.config/systemd/user/ cat> ~/.config/systemd/user/openclaw.service <<'EOF' [Unit] Description=OpenClaw Agent After=network.target [Service] Type=simple ExecStart=/usr/bin/openclaw gateway Restart=always RestartSec=10 [Install] WantedBy=default.target EOF# 重载并启动 systemctl --user daemon-reload systemctl --user enable --now openclaw 

五、网络与安全配置

5.1 防火墙设置

开放必要端口

  • 18789/tcp:Web 控制面板(如需外网访问)
  • 80/443:HTTP/HTTPS(如配置 Nginx 反向代理)
  • SSH 端口(默认 22)
# UFW 配置示例sudo ufw allow 18789/tcp sudo ufw allow 80/tcp sudo ufw allow 443/tcp sudo ufw enable

5.2 Nginx 反向代理(生产环境推荐)

server { listen 443 ssl http2; server_name openclaw.yourdomain.com; ssl_certificate /etc/nginx/ssl/cert.pem; ssl_certificate_key /etc/nginx/ssl/key.pem; location / { proxy_pass http://127.0.0.1:18789; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # WebSocket 支持(关键) proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "upgrade"; } } 

5.3 安全加固建议

创建非 root 用户运行

sudo adduser claw sudousermod -aG sudo claw su - claw 

使用加密 Vault 存储密钥

openclaw vault set ANTHROPIC_API_KEY sk-ant-... openclaw vault set TELEGRAM_BOT_TOKEN 123456:ABC... 

启用配对模式(防止未授权访问):

# ~/.openclaw/config.yamlchannels:telegram:dmPolicy: pairing allowlist:- your_telegram_id 

绑定本地地址(防止直接暴露管理端口):

openclaw gateway --bind 127.0.0.1 

六、常见问题与解决方案

问题现象原因解决方案
npm install 卡死/无响应内存不足 OOM检查 Swap 配置 free -h,关闭其他进程,或使用 pnpm
libatomic.so.1 缺失系统库未安装sudo apt install -y libatomic1
SSH 权限错误密钥文件权限过宽chmod 600 ~/Downloads/your-key.pem
Web 界面无法访问防火墙未放行检查安全组规则,确认 18789 端口开放
API Key 无效环境变量未传递检查 Docker 或 systemd 服务的环境变量配置
服务无法开机自启linger 未启用执行 sudo loginctl enable-linger $USER

七、后续优化建议

  1. 模型路由配置:为不同任务配置不同模型(如用轻量级模型处理简单对话,Claude/GPT-4 处理复杂任务),可降低成本 50%+
  2. 插件生态:通过 Web UI 安装社区插件,扩展浏览器自动化、图像生成、日历同步等功能
  3. 备份策略:定期备份 ~/.openclaw/ 目录下的配置和 Vault 文件

监控与日志

# 查看实时日志 openclaw logs --tail 100# 查看警告级别以上日志 openclaw logs --level warn 

八、总结

通过云服务器部署 OpenClaw,你可以获得一个永不离线的 AI 助手,无论是作为个人效率工具还是团队客服支持都非常适用。对于新手,推荐使用阿里云/百度云的应用镜像一键部署;对于有运维经验的用户,手动部署在 AWS/Hetzner 上能获得更高的性价比和灵活性。

部署时请注意 API 密钥安全,建议先在测试环境验证配置。

Read more

Stable Diffusion插件开发:没GPU也能调试,1小时1块

Stable Diffusion插件开发:没GPU也能调试,1小时1块 你是不是也遇到过这种情况?作为一名前端程序员,想给Stable Diffusion(简称SD)开发个插件,比如做个更顺手的UI界面、加个自动保存功能,或者集成一个AI绘图小工具到自己的项目里。但一打开本地电脑——卡!运行基础模型都费劲,显存爆了、风扇狂转、浏览器直接崩溃。 去网吧?不现实,代码环境没法保留,还容易泄露项目信息;买高端显卡?成本太高,用几次就闲置了。那有没有一种方式,既能低成本、安全地远程开发SD插件,又能像在自己电脑上一样流畅调试? 答案是:有!而且现在只需要每小时1块钱,就能拥有一台带GPU的远程开发机,跑动完整的Stable Diffusion环境,还能随时部署和测试你的插件。最关键的是——你家里的低配电脑也能轻松操作。 这篇文章就是为你量身打造的。我会带你从零开始,一步步搭建一个适合SD插件开发的远程环境,教你如何在没有高性能显卡的情况下,照样高效调试、快速迭代。无论你是第一次接触AI绘图,还是已经玩过WebUI但苦于本地性能不足,这篇都能让你立刻上手。 学完你能做到: * 一键

AMD显卡在windows中通过WSL安装使用stable diffusion(WebUI和ComfyUI)

确认windows的amd显卡驱动版本,至少不低于24.12.1,具体可以查看对应 一、安装wsl和ubuntu。 1.安装wsl2: wsl --install 2.安装ubuntu(24.04、22.04等): wsl.exe --install ubuntu-24.04 3.更改ubuntu安装位置(可选): wsl --manage ubuntu-24.04 --move <location> 4.进入wsl实例: #输入wsl -d <version>进入制定版本或输入wsl进入默认实例 wsl -d ubuntu-24.04 可按Ctrl+D退出当前实例。 关闭实例: wsl --shutdown

从Copilot到CodeBuddy:智能编码助手如何重塑开发日常

从Copilot到CodeBuddy:智能编码助手如何重塑开发日常

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * 从Copilot到CodeBuddy:智能编码助手如何重塑开发日常 * 🏛️ 第一部分:Copilot时代——你的“贴心”纠错笔 * 1.1 什么是Copilot模式? * 1.2 Copilot的局限:管中窥豹 * 🤝 第二部分:CodeBuddy时代——你的“全能”架构师 * 2.1 进化论的必然 * 2.2 重塑开发日常 * 💻 第三章:实战演练——CodeBuddy是如何干活的? * 3.1 场景一:构建一个RESTful API * ❌ 如果使用Copilot(传统补全模式): * ✅ 如果使用CodeBuddy(Agent模式): * 3.

开箱即用:支持ChatGLM/文心一言的API管理镜像部署手册

开箱即用:支持ChatGLM/文心一言的API管理镜像部署手册 1. 为什么你需要这个镜像——告别密钥混乱与模型适配烦恼 你是否遇到过这样的场景: * 项目里同时调用文心一言写营销文案、用ChatGLM做内部知识问答、再接入通义千问生成技术文档,结果每个模型都要单独配置api_key、base_url、请求头格式、流式开关逻辑……代码里堆满条件判断; * 测试环境用的是本地Ollama的Qwen2,生产环境切到百度千帆的文心一言4.5,一改base_url和模型名,就报400 Bad Request——原来千帆不支持OpenAI原生的temperature字段命名,得改成top_p; * 运维同事半夜被报警电话叫醒:“线上服务崩了!查了一小时发现是讯飞星火的API密钥过期了,但没人知道它被用在哪个微服务里……” 这些问题,不是你代码写得不够好,而是缺一个统一的API网关层。 这不是一个需要你从零搭建的复杂系统,而是一个真正“开箱即用”的镜像——它把所有主流大模型(包括ChatGLM、文心一言、通义千问、讯飞星火等)的差异全部封装掉,对外只暴露标准的OpenAI API