OpenClaw大龙虾机器人完整安装教程

OpenClaw(大龙虾机器人)是一款本地部署的全能AI助手,可通过WhatsApp、Telegram、飞书等聊天软件实现邮件处理、日历管理、系统操作等功能,数据本地存储更隐私。本教程适配macOS/Linux/Windows系统,包含基础安装、初始化配置、聊天软件对接及常见问题解决,新手也能快速上手。

一、安装前准备

1. 系统与硬件要求

配置项最低要求推荐配置
操作系统macOS 12+/Ubuntu 20.04+/Windows 10(需WSL2)macOS 14+/Ubuntu 22.04+/Windows 11
内存4GB8GB+
磁盘空间2GB可用10GB+ SSD
核心依赖Node.js 18.0+Node.js v22 LTS最新版

2. 必备前置资源

  • AI模型API Key:Claude、GPT-4/5、阿里云百炼、Kimi等兼容OpenAI API的模型密钥(需前往对应平台官网注册获取);
  • 网络环境:建议配置国内npm镜像(加速依赖下载),Windows用户需提前安装Git(解决依赖拉取问题)。

二、分系统快速安装

方案1:macOS/Linux系统(官方推荐,一键安装)

验证安装成功:

openclaw --version

显示版本号即安装完成。

也可通过npm全局安装(备用方式):

# 配置国内npm镜像(可选,加速下载)npm config set registry https://registry.npmmirror.com # 全局安装OpenClawnpminstall-g openclaw@latest 

打开终端,执行官方一键安装脚本(自动安装Node.js及所有依赖):

curl-fsSL https://openclaw.ai/install.sh |bash

方案2:Windows系统(原生适配,避坑版)

Windows原生对OpenClaw支持较弱,需先配置Node.js环境,全程用管理员权限打开PowerShell操作:

验证安装:

openclaw --version 

若遇执行策略报错,先执行以下命令再重新安装:

Set-ExecutionPolicy-ExecutionPolicy RemoteSigned -Scope CurrentUser 

执行Windows专属安装脚本:

iwr-useb https://openclaw.ai/install.ps1 |iex

安装Node.js v22:

# 安装nvm(Node版本管理工具,推荐)iwr-useb https://raw.githubusercontent.com/coreybutler/nvm-windows/master/nvm-setup.exe |iex# 安装并使用Node.js 22 nvm install 22 nvm use 22.22.0 

方案3:开发者进阶安装(Git克隆源码)

适合需要自定义开发、修改源码的用户,macOS/Linux/Windows(WSL2)均可使用:

# 克隆仓库git clone https://github.com/openclaw/openclaw.git # 进入目录并安装依赖cd openclaw &&pnpminstall&&pnpm run build # 初始化pnpm run openclaw onboard 

三、初始化配置(核心步骤)

安装完成后,执行初始化命令进入交互式配置向导,配置AI模型和基础参数:

# 通用初始化命令 openclaw onboard # Windows新手推荐快速配置 openclaw onboard --flow quickstart 

1. 风险确认

首次配置会出现风险提示:I understand this is powerful and inherently risky. Continue?,选择Yes继续。

2. 选择AI模型并配置API Key

  1. 按方向键选择常用AI模型(推荐Claude/GPT-4/阿里云百炼,国内用户优先选阿里云百炼/Kimi,访问更稳定);
  2. 粘贴提前获取的API Key(格式为sk-xxxxxxxx),回车确认;
  3. 部分模型需浏览器打开链接完成账号授权,按提示操作即可。

3. 基础功能配置

  • 技能包(Skill):新手直接选No跳过,后续按需安装;
  • 记忆功能(Hooks):选中session-memory(启用多轮对话记忆,避免重复说明需求),其他默认;
  • 配置完成后,系统会自动启动Gateway网关服务,默认端口18789

4. 打开管理控制台

配置完成后,浏览器会自动打开本地控制台,手动访问地址:

http://127.0.0.1:18789

首次进入需输入初始化生成的配置Token(妥善保存,丢失需重新初始化)。

四、对接聊天软件(以飞书为例,国内常用)

OpenClaw支持WhatsApp、Telegram、飞书、钉钉、微信等平台,飞书配置难度低、稳定性高,以下为详细对接步骤,其他平台操作逻辑类似。

1. 安装飞书插件

在终端/PowerShell执行插件安装命令:

openclaw plugins install @m1heng-clawd/feishu # 进入插件目录完成依赖安装cd /root/.openclaw/extensions/feishu/ &&npminstall--verbose

2. 飞书开放平台创建应用

  1. 访问飞书开放平台:https://open.feishu.cn/app/,登录后点击创建企业自建应用
  2. 填写应用名称(如「大龙虾AI助手」),选择图标,点击创建
  3. 进入应用管理页,点击添加应用能力 → 选择机器人 → 点击添加

3. 配置飞书应用权限与事件

(1)批量导入权限
  1. 进入应用管理页权限管理 → 点击批量导入权限

粘贴以下JSON代码,点击导入(核心权限,确保机器人能收发消息):

{"scopes":{"tenant":["contact:user.base:readonly","im:chat","im:message","im:message:send_as_bot","im:resource"],"user":[]}}
(2)事件订阅配置
  1. 进入事件与回调 → 事件配置选择长连接,点击保存
  2. 点击添加事件 → 选择消息与群组 → 勾选im.message.receive_v1(接收消息事件,必选);
  3. 订阅方式选择使用长连接,无需填写回调地址,自动生效。
(3)发布应用
  1. 进入版本管理与发布 → 点击新建版本,填写版本号和描述;
  2. 点击保存并发布,飞书应用配置完成(未发布则配置不生效)。

4. OpenClaw绑定飞书应用

  1. 按提示输入飞书应用的App IDApp Secret(在飞书开放平台「凭证基础信息」中复制);

验证状态:

openclaw status 

显示Gateway running即绑定成功。

重启网关服务,使配置生效:

openclaw gateway restart 

在终端执行命令,添加飞书通信渠道:

openclaw channels add

5. 飞书端测试使用

  1. 打开飞书APP,进入工作台 → 找到创建的「大龙虾AI助手」,点击进入私聊窗口;
  2. 发送任意消息(如「你好」「整理我的今日日程」),收到机器人回复即对接完成。

五、基础使用与常用命令

1. 核心使用方式

在绑定的聊天软件中直接发送自然语言指令,机器人即可执行操作,例如:

  • 邮件处理:「帮我整理上周的未读邮件,提取会议纪要」;
  • 文件管理:「将桌面PDF文件按日期归档到文档文件夹」;
  • 系统操作:「执行shell命令查看电脑CPU使用率」;
  • 定时任务:「每天早上9点给我发送今日待办事项」。

2. 常用终端命令汇总

功能命令
查看版本openclaw --version
查看运行状态openclaw status
启动/停止/重启机器人openclaw start/stop/restart
重新初始化配置openclaw onboard
重启网关服务openclaw gateway restart
查看已安装插件openclaw plugins list
安装插件openclaw plugins install 插件名
卸载插件openclaw plugins uninstall 插件名
查看帮助openclaw --help

六、常见问题与避坑指南

1. 安装时卡在node-gyp rebuild

原因:缺少Python和C++编译工具;
解决

  • Windows:安装Visual Studio Build Tools和CMake;
  • macOS:执行xcode-select --install安装Xcode命令行工具;
  • Linux:执行sudo apt install build-essential python3

2. Windows提示「系统找不到指定的路径」

原因:系统组件被精简、WSL未启用或Git环境未配置;
解决

  1. 安装Git(官网:https://git-scm.com/download/win),安装后重启电脑
  2. 启用WSL2:在PowerShell执行wsl --install

清理npm缓存并重装:

npm cache clean --force npm install -g openclaw@latest 

3. 飞书配置提示「未建立长连接」

解决

  1. 检查App ID和App Secret是否输入正确;
  2. 等待1-2分钟再重新保存长连接配置(网络延迟导致);
  3. 执行openclaw gateway restart重启网关,再重新配置。

4. 聊天软件发送消息无回复

排查步骤

  1. 执行openclaw status确认网关服务正常运行;
  2. 检查聊天软件应用的事件订阅是否添加im.message.receive_v1
  3. 确认应用已在飞书开放平台发布(未发布无法收发消息);
  4. 查看网关日志:openclaw gateway --verbose,定位错误原因。

5. 国内网络下载依赖卡顿/失败

解决

  1. 配置国内npm镜像:npm config set registry https://registry.npmmirror.com
  2. 使用代理工具,或手动下载离线安装包进行安装。

七、进阶优化(可选)

  1. 本地模型部署:修改.env文件中的MODEL_PROVIDERAPI_KEY,支持本地运行Llama、Qwen等模型,完全脱离外网。
  2. 权限限制:在config.json中设置allowed_commandsdenied_commands,禁止机器人执行危险shell命令,提升安全性。

Docker部署:适合需要7×24小时运行的用户,容器化部署更稳定:

git clone https://github.com/openclaw/openclaw.git cd openclaw docker compose up -d openclaw-gateway 

汉化适配:国内用户建议安装社区汉化版,优化微信/企业微信支持:

npminstall-g openclaw-cn@latest 

八、注意事项

  1. 隐私安全:OpenClaw默认本地部署,数据不上传,但建议不要在装有重要商业/隐私数据的电脑上运行,可使用闲置设备或云端虚拟机(VPS);
  2. 版本兼容:避免使用最新版(官方频繁更新易出问题),新手建议安装稳定版:npm install -g [email protected](替换为实际稳定版本号);
  3. 服务保活:本地部署时,关闭终端/PowerShell会导致网关服务停止,可使用pm2等工具实现后台保活。

原文链接:https://www.cnblogs.com/seozimt/p/19634519

Read more

OpenClaw 钉钉群聊多机器人配置完全指南

OpenClaw 钉钉群聊多机器人配置完全指南

OpenClaw 钉钉群聊多机器人配置完全指南 在团队协作中,配置多个专用机器人可以显著提升工作效率——不同的机器人可以分别负责写作、编码、数据分析等不同任务。本文将详细介绍如何在使用OpenClaw的钉钉群聊中配置多个任务机器人,并进一步讲解如何为每个机器人赋予独特的性格和工作规范。 一、钉钉端配置 首先,我们需要在钉钉开放平台创建多个任务机器人。 1.1 创建机器人 1. 按照上述步骤,根据实际需求创建多个机器人。 机器人创建完成后,务必记下 Client ID 和 Client Secret,这些信息后续配置会用到。 访问 钉钉开发者平台,点击立即创建按钮创建任务机器人。 二、OpenClaw端配置 完成钉钉端的配置后,接下来我们在OpenClaw中进行相应的设置(默认已装过钉钉插件)。 # 安装钉钉渠道插件 openclaw plugins install @dingtalk-real-ai/dingtalk-connector # 重启 gateway openclaw gateway restart 2.1 添加 Agent

XIlinx FPGA使用LVDS的电源与电平关键指南

XIlinx FPGA使用LVDS的电源与电平关键指南

针对 7 Series, UltraScale, UltraScale+ FPGAs 以及 MPSoC 器件使用 LVDS 的注意事项: 1. 适用范围 * 器件系列:7 Series, UltraScale, UltraScale+, Zynq UltraScale+ MPSoC。 * 涉及 IO 类型:High Performance (HP) Banks, High Range (HR) Banks, High Density (HD) Banks。 2. 电源电压 (VCCO) 与 输入/输出 的限制 这是该指南的核心内容,根据 Bank 类型和是用作输入还是输出,规则有所不同: A. LVDS

美团前端要转全栈?后端可能要失眠了,别笑话前端了,你们的饭碗也要被抢了

说个真实的事。 我现在的公司,没有产品经理,没有UI设计师,没有前端工程师。 只有全栈。 每个人配一套AI工具链,一个人干完以前整个小组的活。 一人顶十人,不是夸张,是正在发生的现实。 你可能觉得这是个例。 不是。 美团履约团队已经开始要求前端转全栈了。 注意,不是转Node,是转Java。 老员工必须转,新员工只招全栈。 菜鸟国际更狠,直接让后端去写前端和测试。 大厂是风向标。 美团、阿里动了,中小公司马上就会跟进。 为什么会这样? 因为AI把“沟通成本”这个遮羞布扯掉了。 以前前后端分离,看起来是技术架构的进步。 实际上呢? 接口扯皮能扯一天,联调能调一周,一个需求三个人传话,信息损耗巨大。 老板们以前忍了,因为没办法。 现在AI来了,代码生成效率提升了10倍不止。 老板们突然发现:最贵的不是写代码的时间,是人和人之间的沟通成本。 一个会用AI的全栈,从需求到上线一个人搞定。 不用开会,不用对接口,不用等联调。 你说老板选谁? 纯前端和纯后端,

我用Claude Code + GLM4.7修前端Bug的翻车现场,1小时烧光5小时限额

本来想体验一把“vibe coding 省时间”,结果变成“vibe coding 省不了、还很贵”:折腾将近一小时,GLM 额度直接打满,Bug 还在。 背景:事情是怎么开始的 最近遇到一个前端 Bug,属于那种看起来不大、但很烦的类型:页面运行时报错,提示动态导入某个模块失败(报错里能看到类似 Failed to fetch dynamically imported module .../router/index.ts 这种信息)。 我想着正好试试工具链:Claude Code + GLM4.7。理想情况是:它读代码、跑命令、给修改方案,我负责点确认就行。 现实是另一回事。 结果:时间花了,额度没了,Bug 还没修好 简单总结一下这次的“