Ubuntu 24 Desktop LTS 部署 AI 智能体 OpenClaw

文章目录


AI 智能体 OpenClaw 简介

GitHub 地址:https://github.com/openclaw/openclaw
官方网站:https://clawhub.ai/
官方文档:https://docs.openclaw.ai/

OpenClaw(曾用名 Clawdbot、Moltbot)是一款开源、本地优先、模型无关的 AI 智能体执行网关,核心是让你用自然语言指挥电脑,让 AI 替你完成真实操作。它不是聊天机器人,而是能 “听懂人话、动手干活” 的本地 AI 执行中枢。

OpenClaw 是 AI 智能体领域的现象级项目,它将大模型从 “聊天工具” 升级为 “数字员工”,真正实现了 “指令一句话,AI 跑全程”。其本地优先、模型无关、技能扩展、多平台接入的核心优势,使其成为个人效率提升、企业自动化部署的首选方案。


1、准备阶段

1.1、操作系统怎么选

推荐:

  • 长期稳定/生产/服务器 → Linux(Ubuntu 22.04/24.04 LTS)
    • 最稳、兼容性最好、社区教程最多
    • 原生支持 systemd、定时任务、后台守护、完整技能生态
    • 云服务器/家庭服务器首选,适合 7×24 运行
    • 无 WSL 抽象层,性能与资源占用最优
  • 个人日常/本地优先/苹果设备 → macOS 14+(Sonoma)
    • 原生桌面体验、菜单栏、语音唤醒、Web UI 完整
    • M 系列芯片性能强,本地模型(Ollama)跑得顺
    • 隐私与文件权限友好,适合个人主力机
  • Windows 用户 → Windows 11 + WSL2(Ubuntu 22.04)
    • 绝对不要用 Windows 原生(仅预览、技能/记忆残缺)
    • WSL2 是 Windows 唯一推荐方案,等价 Linux 环境
    • 可无缝用 Windows 文件、浏览器、IDE,兼顾日常与开发
  • 边缘/低功耗/24/7 → Raspberry Pi 5(8GB)+ Ubuntu Server 24.04
    • 低功耗、静音、适合家庭私有 AI 节点
    • 用 NVMe SSD 替代 SD 卡,稳定性大幅提升

我的选择:老电脑装 Ubuntu Desktop

  • 不选:
    • Ubuntu Server 没有桌面,我要用浏览器
    • 苹果没有,买?太贵 ~
    • Windows 需要 WSL2,虚拟机里面运行。有性能损失
    • 低功耗设备没有,买?

1.2、硬件要求

项目最低配置推荐配置说明
CPU2核处理器4核及以上(Intel i5/Ryzen 5+)影响多任务并发与执行效率
内存2GB RAM4GB+ RAM避免智能体运行时内存不足
存储500MB 可用空间2GB+ 可用空间存放程序、依赖与缓存
网络稳定互联网连接高速宽带用于下载依赖、调用 LLM API、同步更新

1.3、API 密钥与账号准备(关键)

  • LLM API 密钥(必选其一)
    • 商业模型 API 密钥,例如:GPT、Claude、Google Gemini 等
    • 本地模型:如 Ollama(需额外安装并配置)
  • 通信平台账号(可选。如需要通过通讯平台与 OpenClaw 通讯)
    • WhatsApp 账号(扫码连接)
    • Telegram 账号 + Bot Token(@BotFather 创建)
    • Discord 账号 + 应用凭证

2、Ubuntu 24 Desktop LTS 部署 OpenClaw

插播广告 - 常用命令可以参考 Ubuntu 24 常用命令&方法:https://blog.ZEEKLOG.net/achi010/article/details/145224136

操作系统:Ubuntu 24.04.1 LTS
OpenClaw 版本:v2026.3.13

2.1、安装部署

注意事项:

  • 必要的步骤,尽量不要跳过。例如:Model/auth provider(没有 OpenClaw 用不了)、Hooks 尽量都开通
  • OpenClaw 提供的 skill 尽量安装,用的概率很高,但是有些需要 Key 就根据个人情况而定了

(1)安装基础依赖

# 正常安装应该是sudoapt update &&sudoapt upgrade -ysudoaptinstall-ycurlgit build-essential python3 python3-pip chromium-browser 
# 我的安装是这样的sudoapt update &&sudoapt upgrade -ysudoaptinstall-ycurlgit python3 python3-pip chromium-browser 
# 会报错sudoaptinstall-y build-essential 
在这里插入图片描述
# 报错sudoaptinstallbzip2
在这里插入图片描述
sudoapt policy libbz2-1.0 # 看到 Installed: 后面是 1.0.8-5.1build0.1,而 Candidate: 或可用版本里有 1.0.8-5.1。# 强制降级 libbz2-1.0 到指定版本sudoaptinstall libbz2-1.0=1.0.8-5.1 # 成功降级后,重新安装sudoaptinstallbzip2sudoaptinstall build-essential # 终于成功了 ~

(2)安装 Node.js 22 LTS

curl-fsSL https://deb.nodesource.com/setup_22.x |sudo-Ebash - sudoaptinstall-y nodejs # 验证node-v# 应输出 v22.x.xnpm-v

(3)配置代理,保证网络正常

首先要配置代理,因为我要使用 Google

1)Ubuntu 24.04.1 LTS 怎么看网络代理?

设置 → 网络 → 代理 → 关/手动
详细里面就是具体的代理了

2)Ubuntu 24.04.1 LTS 怎么显示隐藏文件?

Ubuntu 文件管理器(最常用)
快捷键:Ctrl + H
作用:显示 / 隐藏 隐藏文件(. 开头的文件)
效果:按一次显示,再按一次隐藏。

3)配置代理,否则 Google 的模型不通,更改操作系统配置文件 ~/.bashrc

# 替换你的 proxy 信息 # Proxy export http_proxy=http://127.0.0.1:9674 export https_proxy=http://127.0.0.1:9674 
# 配置文件生效source ~/.bashrc # 命令行试一下curl https://www.google.com 

(4)安装 OpenClaw(官方脚本)

# 国内可先加速 npm(可选)npm config set registry https://registry.npmmirror.com # 开始之前要确保网络能连上 Model ,否则就好后面再重新配置了!# 官方一键安装(可以选择 QuickStart(快速配置),会进入配置导航,按照指引一步一步配置就好了!)curl-fsSL https://openclaw.ai/install.sh |bash# 需要配置:LLM API Key

配置完成后,会自动打开浏览器进入主页 http://127.0.0.1:18789

说明:此步骤如果失败,重启电脑,重新安装就行了。

# 验证 openclaw --version# 查看状态 openclaw status 
在这里插入图片描述

2.2、Ubuntu 24 Desktop LTS 优化

  • 关闭休眠、锁屏(如果需要作为后台使用,避免断连)
    • 设置 → 电源 → 电源模式:均衡
    • 设置 → 电源 → 节点 → 息屏:从不
  • Web UI 可固为书签(方便打开)

2.3、常用命令

FAQ: https://docs.openclaw.ai/faq
Troubleshooting: https://docs.openclaw.ai/troubleshooting

# 帮忙文档 openclaw --help# 管理后台核心服务 openclaw gateway # 常用参数 openclaw gateway install / start / stop / restart / status# 重新进入初始化向导 openclaw onboard # 自动安装后台服务# openclaw onboard --install-deamon# 仅安装,不进入初始化向导# openclaw onboard --no-noboard# 查看日志 openclaw logs --follow openclaw logs --json openclaw logs # 交互式修改配置 openclaw config openclaw configure # 查看整体运行状态 openclaw status # 全面健康诊断 openclaw doctor # 轻量级健康检查 openclaw health # 查看所有聊天渠道状态 openclaw channels status # 打开 Web 面板 openclaw dashboard # 升级到最新版 openclaw update 
# 卸载(谨慎) - 没测试npm uninstall -g openclaw 

2.4、Skill

Skills 是 OpenClaw 实现各种功能的插件或模块

2.4.1、安全

(1)Skill Vetter(必备技能) - 官方推荐工具(核心防御)
OpenClaw 官方认证的安全审查技能,被誉为 “技能安全门卫”
安装与使用:

# 安装 clawhub install skill-vetter # 使用方法1:安装前自动扫描 clawhub install<target-skill># 自动触发Skill Vetter审查

2.4.2、如何安装 skill

搜索
Skill Store :https://clawhub.ai/

下载,放到 /home/userName/.openclaw/workspace/skills/ 目录,skill 就生效了。可以通过页面确认

在这里插入图片描述

也可以通过 clawhub CLI 来管理 Skills

# 搜索 clawhub search <skill-name># 安装 clawhub install<skill-name># 更新 clawhub sync clawhub sync<skill-name>

3、示例:如何使用 OpenClaw

3.1、生成博客

通过 Skill Store :https://clawhub.ai/ 搜索 - genetrate blog

在这里插入图片描述

下载喜欢的 skill 放到 /home/userName/.openclaw/workspace/skills/ 目录,通过浏览器确认 skill 生效。通过“聊天”就可以让 OpenClaw 生成博客了。


4、注意事项:账单

首先,也是最终的事情,注意 Token 账单哈 ~

  • 保持更新:定期更新 OpenClaw 及其 Skills,以获得最新的功能和安全补丁。
  • 理解局限性:AI 智能体并非万能,其生成的内容可能需要人工审核和修改,尤其是在专业领域或涉及事实核查时。
  • 数据安全:在处理敏感信息时,务必谨慎,并遵守相关的数据隐私法规。
  • 资源消耗:复杂的任务可能需要较多的计算资源,请确保您的系统有足够的内存和 CPU。
  • 明确指令:提供清晰、具体、结构化的指令,有助于 AI 更准确地理解您的需求。

5、常见问题

(1)依赖问题
上面已经说过了,降级吧 ~ 哎 ~

(2)安装卡住
重启电脑;换 npm 镜像;重启终端;或者手动安装

(3)权限不足:所有命令加 sudo 或用普通用户(推荐)

(4)LLM 连接不上
排查思路:1)首先检查网络是否正常,例如 DNS、443、API、代理等;2)模型是否正常,例如:Google Cloud 状态面板(https://status.cloud.google.com/),确认 Gemini API 无服务中断 / 限流;3)确认 KEY 对应的能力是否和配置一致。

# 验证 DNS 解析nslookup generativelanguage.googleapis.com # 验证端口连通性(443 是 HTTPS 默认端口)nc-zv generativelanguage.googleapis.com 443# 预期:显示「succeeded!」或「Connected」,无连接拒绝/超时# 手动调用 API 验证(替换为你的 API Key)curl-v"https://generativelanguage.googleapis.com/v1/models/gemini-3.1-flash-lite-preview:generateContent?key=YOUR_GOOGLE_API_KEY"\-H"Content-Type: application/json"\-d'{"contents": [{"parts": [{"text": "test"}]}]}'# 预期:返回200 OK和模型响应;若返回「Connection timed out」则确认网络问题# 查看 key 可以使用的模型curl-v"https://generativelanguage.googleapis.com/v1/models?key=YOUR_GOOGLE_API_KEY"

总结

通过本指南,您应该已经了解了如何在 Ubuntu 24 Desktop LTS 上部署 OpenClaw AI 智能体,并掌握了其基本使用方法。OpenClaw 作为一个强大的生产力工具,能够极大地提升我们的工作效率。鼓励您积极探索其更多高级功能,并将其集成到您的日常工作流程中,释放 AI 的无限可能!

Read more

前端部署:别让你的应用在上线后掉链子

前端部署:别让你的应用在上线后掉链子 毒舌时刻 这部署流程写得跟绕口令似的,谁能记得住? 各位前端同行,咱们今天聊聊前端部署。别告诉我你还在手动上传文件到服务器,那感觉就像在石器时代用石头砸坚果——能用,但效率低得可怜。 为什么你需要自动化部署 最近看到一个项目,部署时需要手动复制文件到服务器,每次部署都要花上几个小时。我就想问:你是在做部署还是在做体力活? 反面教材 # 反面教材:手动部署 # 1. 构建项目 npm run build # 2. 压缩文件 zip -r build.zip build # 3. 上传到服务器 scp build.zip user@server:/var/www/html # 4. 登录服务器 ssh user@server # 5. 解压文件 unzip

Rust WebAssembly开发实战:构建高性能前端应用

Rust WebAssembly开发实战:构建高性能前端应用

Rust WebAssembly开发实战:构建高性能前端应用 一、引言 💡WebAssembly(Wasm)是一种二进制指令格式,旨在提供一种可移植的、高效的编译目标,允许开发者使用多种语言(如C、C++、Rust)编写代码,并在Web浏览器中以接近原生速度运行。它填补了JavaScript在性能密集型任务上的空白,使得在Web端开发高性能应用成为可能。 Rust语言以其内存安全、零成本抽象、高性能和良好的工具链支持,成为开发WebAssembly的首选语言之一。Rust编译器可以直接将Rust代码编译成WebAssembly,并且Rust的标准库提供了对WebAssembly的良好支持。此外,Rust生态系统中还有许多专门为WebAssembly开发的库和工具,使得开发过程更加简单。 本章将深入探讨Rust WebAssembly开发的核心原理,介绍WebAssembly的概念、优势和应用场景,讲解如何使用Rust编译器将Rust代码编译成WebAssembly,以及如何在Web浏览器中调用WebAssembly模块。同时,本章还将通过实战项目演示如何构建一个高性能的前端

如何购买Token以扩展GLM-4.6V-Flash-WEB的API调用额度?

如何扩展 GLM-4.6V-Flash-WEB 的 API 调用额度:从 Token 机制到本地部署的完整实践 在多模态 AI 应用快速落地的今天,视觉语言模型(VLM)已经不再是实验室里的概念,而是实实在在驱动智能客服、内容审核、教育辅助等系统的核心组件。尤其是像 GLM-4.6V-Flash-WEB 这类专为 Web 场景优化的轻量级模型,凭借其低延迟、高精度和易集成的特点,正被越来越多开发者引入生产环境。 但随之而来的问题也逐渐浮现:随着用户增长和请求频率上升,API 调用额度很快见底——你有没有遇到过这样的情况?前端页面一切正常,可突然开始返回“请求失败”或 429 Too Many Requests 错误。排查一圈才发现,不是服务挂了,也不是网络问题,而是账户里的 Token 被用光了。 这背后其实是一套精细化的资源计量机制在起作用。理解它,不仅能帮你避免服务中断,

网络爬虫(Web Scraping)是一种用于自动提取网页内容的技术

网络爬虫(Web Scraping)是一种用于自动提取网页内容的技术

下面内容摘录自《用R探索医药数据科学》专栏文章的部分内容(原文7642字)。 2章10节:R的网络爬虫技术快速入门(更新20241217)_如何用r分析inhanes数据库-ZEEKLOG博客  在现代数据分析和互联网应用中,网络爬虫技术已经成为一个不可或缺的工具。通过网络爬虫,用户可以自动化地抓取网页内容,从而高效地获取大量的数据资源。R语言中的rvest包提供了强大的功能,帮助用户在数据收集、清洗和存储方面更高效地操作。然而,在运用网络爬虫技术时,除了掌握相关技术操作外,还必须注意遵守相关的法律法规,尤其是在数据采集和使用过程中,确保不侵犯他人合法权益并遵循网站的使用协议。接下来,我们将通过rvest包的使用示例,展示如何抓取网页数据、清洗信息并进行存储,同时强调遵守相关法律规范的重要性。 一、R的网络爬虫 1、认识网络爬虫 网络爬虫(Web Scraping)是一种用于自动提取网页内容的技术。通过模拟浏览器行为,网络爬虫可以访问网站、读取网页源代码,并从中提取所需的信息。这种技术在数据分析、市场研究、学术研究等领域有广泛的应用,能够帮助用户从大量的网页中快速获取数