[AI实战]Ubuntu 下安装OpenClaw——从零搭建你的专属AI助理

[AI实战]Ubuntu 下安装OpenClaw——从零搭建你的专属AI助理

[AI实战]Ubuntu 下安装OpenClaw——从零搭建你的专属AI助理

前言

OpenClaw是一款功能强大的AI助理框架,支持自定义技能、多模型接入,并能通过聊天软件与你交互。本文将手把手带你在Ubuntu系统上完成OpenClaw的安装与配置,并实现外部安全访问。无论你是AI爱好者还是开发者,都能通过本文快速拥有一个属于自己的AI助理。

环境准备:

  • 操作系统:Ubuntu 20.04 / 22.04 / 24.04(本文以24.04为例)
  • 权限:需要使用root或拥有sudo权限的用户
  • 网络:能够访问GitHub及npm源(建议使用国内镜像加速)

一、升级Node.js至v22+

OpenClaw要求Node.js版本≥22.0.0,低版本会导致npm安装失败。若系统已安装其他版本,请务必升级。

方法一:使用nvm(推荐,便于多版本管理)

1. 安装nvm

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh |bash

安装完成后,重新加载环境变量:

source ~/.bashrc # 若使用bash# source ~/.zshrc # 若使用zsh

2. 安装Node.js v22并设为默认

nvm install22 nvm alias default 22 nvm use 22

3. 验证版本

node-v# 应显示 v22.x.xnpm-v# 检查npm版本

方法二:使用NodeSource官方仓库(系统级安装)

如果你希望直接覆盖系统Node版本,可以使用以下命令(以Ubuntu/Debian为例):

curl-fsSL https://deb.nodesource.com/setup_22.x |bash - apt-getinstall-y nodejs 

CentOS/RHEL用户请使用:

curl-fsSL https://rpm.nodesource.com/setup_22.x |bash - yum install-y nodejs 

方法三:手动下载二进制包

Node.js官网 下载Linux二进制包,解压后配置PATH即可。

二、安装OpenClaw

1. 一键安装(官方推荐)

curl-fsSL https://openclaw.ai/install.sh |bash

若网络不稳定,也可以直接使用npm全局安装(避免脚本问题):

npminstall-g openclaw@latest 

2. 验证安装

openclaw --version

出现版本号即表示安装成功。

3. 初始化配置

openclaw onboard 

此命令将引导你完成基础配置,包括:

  • 选择AI模型(可跳过,后续添加)
  • 配置聊天渠道(如Telegram、飞书等,可跳过)
  • 安装基础技能(建议全选)

跳过模型配置: 若暂时没有API Key,可以选择跳过,后续随时补充。

在这里插入图片描述


选择Open the Web UI:

在这里插入图片描述

4. 修改配置文件以实现外部访问

OpenClaw默认只监听本地(127.0.0.1),如需从局域网其他设备访问Web控制台,需修改配置文件。

配置文件位于 ~/.openclaw/openclaw.json,编辑该文件:

nano ~/.openclaw/openclaw.json 

找到 gateway 部分,将 bind 的值改为 "lan"(监听所有网络接口),并确保端口为 18789

在这里插入图片描述

修改后重启Gateway服务:

openclaw gateway restart 

5. 防火墙放行端口

根据你的防火墙工具,开放18789端口(注意:生产环境建议限制来源IP):

# ufw ufw allow 18789/tcp # firewalld firewall-cmd --add-port=18789/tcp --permanent&& firewall-cmd --reload# iptables iptables -A INPUT -p tcp --dport18789-j ACCEPT 

验证监听状态:

ss -untlp|grep18789

应显示类似 0.0.0.0:18789 的监听记录。

在这里插入图片描述

6. 安全访问:使用SSH隧道(推荐)

由于Web控制台基于HTTP且未配置HTTPS,直接暴露可能带来安全风险。最安全的方式是通过SSH隧道将远程端口映射到本地。

在宿主机(你的物理机)上执行:

ssh-L8888:localhost:18789 root@<虚拟机IP>
在这里插入图片描述
  • 8888:本地监听端口,可自定义
  • <虚拟机IP>:Ubuntu虚拟机的实际IP地址

保持此终端窗口打开,然后打开宿主机浏览器,访问 http://localhost:8888。此时相当于本地访问,完美满足浏览器的“安全上下文”要求,且所有流量均通过SSH加密。

在这里插入图片描述
优点:无需修改OpenClaw配置、无需开放防火墙、流量加密。
缺点:每次访问需保持SSH连接。

三、常见问题与解决

Q1:安装时npm报错“node-domexception”等警告

这是正常现象,不影响使用,可忽略。

Q2:无法从外部访问Web控制台

  • 检查 bind 是否设置为 "lan""0.0.0.0"(注意新版需用 lan 模式)。
  • 确认防火墙已放行18789端口。
  • 尝试使用SSH隧道方式。

Q3:浏览器报“origin not allowed”

在配置文件中添加 controlUi.allowedOrigins,例如:

"controlUi":{"allowedOrigins":["http://你的宿主机IP:18789"]}

然后重启Gateway。

Q4:浏览器提示“需要安全上下文”

这是因为通过HTTP访问非本地地址。解决方案:

  • 使用SSH隧道(推荐)
  • 或配置HTTPS(如使用Tailscale Serve)
  • 或在配置中设置 allowInsecureAuth: true(仅限测试环境)

四、进阶:配置模型与技能

1. 添加AI模型密钥

通过Web控制台或命令行添加:

openclaw config set models.providers.openai.apiKey sk-xxxxxx openclaw models set openai/gpt-4 

2. 安装新技能

使用官方工具 clawhub

npminstall-g clawhub clawhub install tavily-search # 安装联网搜索技能

3. 使用本地模型

如果你有本地部署的模型(如Ollama、vLLM),可通过自定义模型提供商接入,参考[官方文档]( Model Providers - OpenClaw )。

五、总结

通过本文,你已经在Ubuntu上成功搭建了OpenClaw AI助理,并掌握了通过SSH隧道安全访问Web控制台的方法。OpenClaw的强大之处在于其可扩展性——你可以随时添加新技能、接入不同模型,甚至开发自己的插件。

友情提示:建议创建普通用户运行OpenClaw,避免使用root带来安全风险。

如果你在安装过程中遇到任何问题,欢迎在评论区留言交流!

Read more

AI提示词:零基础入门与核心概念

AI提示词:零基础入门与核心概念

AI提示词:零基础入门与核心概念 📝 本章学习目标:理解什么是提示词,掌握提示词的核心概念,建立正确的AI对话思维,为后续学习打下坚实基础。 一、什么是提示词? 1.1 提示词的定义 提示词(Prompt),简单来说,就是你发给AI的指令或问题。它是人类与人工智能沟通的桥梁,是你告诉AI"我想要什么"的方式。 想象一下,你雇佣了一位超级聪明但对你的需求一无所知的助手。这位助手知识渊博、能力强大,但它需要你清晰地告诉它要做什么。提示词就是你给这位助手的工作指令。 💡 核心认知:提示词不是简单的"提问",而是一种结构化的指令设计。好的提示词能让AI精准理解你的意图,输出高质量的结果;糟糕的提示词则会让AI"答非所问",浪费你的时间。 1.2 提示词的重要性 为什么提示词如此重要?让我们通过一个对比来说明: ❌ 糟糕的提示词: 帮我写点东西 ✅ 好的提示词: 请帮我写一篇关于&

基于开源飞控pix的无人机装调与测试

基于开源飞控pix的无人机装调与测试

文章目录 * 前言 * 硬件使用说明 * 一、Hyper982 RTK模块 * 作为移动站使用 * 通过串口助手设置RTK参数(移动站) * 设置飞控参数(ArduPilot) * 设置飞控参数(PX4) * 二、HyperLte 4G图数传 * 资源下载 * 1、地面站软件和固件可执行文件 * 超维定制版HyperQGC(推荐) * NTRIP功能使用方法 * 基于超维定制版QGC和ArduPilot固件的领航跟随编队 * 多路视频流设置 * MQTT设置 * 地面站设置 * 4G模块配置 * MQTT服务器配置 * 飞控配置 * 海康威视相机云台控制 * Mission Planner地面站 * PX4固件可执行文件 * ArduPilot固件可执行文件 * 2、安装好环境的虚拟机 * 安装虚拟机 *

用Z-Image-Turbo做AI绘画:16GB显存轻松跑,中英文提示全支持

用Z-Image-Turbo做AI绘画:16GB显存轻松跑,中英文提示全支持 你是否试过在本地部署一个文生图模型,结果被漫长的下载、复杂的环境配置、显存不足的报错反复劝退?是否期待一款真正“开箱即用”的AI绘画工具——不用等权重下载、不需手动编译、不靠A100/H100也能跑出高清图?Z-Image-Turbo就是那个答案。它不是又一个参数堆砌的庞然大物,而是通义实验室用蒸馏技术“瘦身”后的高效能选手:8步出图、照片级质感、中英文提示词原生支持、16GB显存稳稳运行。更重要的是,它已为你打包成即启即用的ZEEKLOG镜像——连Gradio界面、API服务、进程守护都配齐了,你唯一要做的,就是打开浏览器。 本文不讲论文推导,不列训练细节,只聚焦一件事:如何用最短路径,把Z-Image-Turbo变成你手边真正好用的AI画笔。从零启动到生成第一张带中文标题的海报,全程无需联网、不碰conda环境、不改一行代码。如果你有一块RTX 4090或A6000,甚至是一台搭载RTX 3090的旧工作站,这篇文章就是为你写的。 1. 为什么Z-Image-Turbo值得你立刻试试 在AI绘画

毫秒级响应!树莓派5 + Whisper + EdgeTTS 构建全离线语音助手 (含避坑指南)

1. 为什么选择 Whisper 替代 Vosk? 我之前用 Vosk 做离线语音识别确实挺方便的,特别是那个 40MB 的小模型中文件,在树莓派 5 上几乎瞬间就能响应。但用久了发现一个问题:中文识别准确率还是不够理想,特别是当我说得稍微快一点或者带点口音的时候,它经常会听错。 后来我试了 OpenAI 的 Whisper,虽然模型大了不少(我用的 base 版本大约 150MB),但识别准确率真的提升很明显。最重要的是,Whisper 支持热词增强功能,这对智能家居控制特别有用!我可以把"开灯"、"关风扇"这些指令设为热词,识别准确率直接拉满。 实测下来,Whisper 在树莓派 5 上的响应速度依然能保持在毫秒级。我用 Python 写了个简单的测试脚本: import