OpenClaw大龙虾机器人完整安装教程

OpenClaw(大龙虾机器人)是一款本地部署的全能AI助手,可通过WhatsApp、Telegram、飞书等聊天软件实现邮件处理、日历管理、系统操作等功能,数据本地存储更隐私。本教程适配macOS/Linux/Windows系统,包含基础安装、初始化配置、聊天软件对接及常见问题解决,新手也能快速上手。

一、安装前准备

1. 系统与硬件要求

配置项最低要求推荐配置
操作系统macOS 12+/Ubuntu 20.04+/Windows 10(需WSL2)macOS 14+/Ubuntu 22.04+/Windows 11
内存4GB8GB+
磁盘空间2GB可用10GB+ SSD
核心依赖Node.js 18.0+Node.js v22 LTS最新版

2. 必备前置资源

  • AI模型API Key:Claude、GPT-4/5、阿里云百炼、Kimi等兼容OpenAI API的模型密钥(需前往对应平台官网注册获取);
  • 网络环境:建议配置国内npm镜像(加速依赖下载),Windows用户需提前安装Git(解决依赖拉取问题)。

二、分系统快速安装

方案1:macOS/Linux系统(官方推荐,一键安装)

验证安装成功:

openclaw --version

显示版本号即安装完成。

也可通过npm全局安装(备用方式):

# 配置国内npm镜像(可选,加速下载)npm config set registry https://registry.npmmirror.com # 全局安装OpenClawnpminstall-g openclaw@latest 

打开终端,执行官方一键安装脚本(自动安装Node.js及所有依赖):

curl-fsSL https://openclaw.ai/install.sh |bash

方案2:Windows系统(原生适配,避坑版)

Windows原生对OpenClaw支持较弱,需先配置Node.js环境,全程用管理员权限打开PowerShell操作:

验证安装:

openclaw --version 

若遇执行策略报错,先执行以下命令再重新安装:

Set-ExecutionPolicy-ExecutionPolicy RemoteSigned -Scope CurrentUser 

执行Windows专属安装脚本:

iwr-useb https://openclaw.ai/install.ps1 |iex

安装Node.js v22:

# 安装nvm(Node版本管理工具,推荐)iwr-useb https://raw.githubusercontent.com/coreybutler/nvm-windows/master/nvm-setup.exe |iex# 安装并使用Node.js 22 nvm install 22 nvm use 22.22.0 

方案3:开发者进阶安装(Git克隆源码)

适合需要自定义开发、修改源码的用户,macOS/Linux/Windows(WSL2)均可使用:

# 克隆仓库git clone https://github.com/openclaw/openclaw.git # 进入目录并安装依赖cd openclaw &&pnpminstall&&pnpm run build # 初始化pnpm run openclaw onboard 

三、初始化配置(核心步骤)

安装完成后,执行初始化命令进入交互式配置向导,配置AI模型和基础参数:

# 通用初始化命令 openclaw onboard # Windows新手推荐快速配置 openclaw onboard --flow quickstart 

1. 风险确认

首次配置会出现风险提示:I understand this is powerful and inherently risky. Continue?,选择Yes继续。

2. 选择AI模型并配置API Key

  1. 按方向键选择常用AI模型(推荐Claude/GPT-4/阿里云百炼,国内用户优先选阿里云百炼/Kimi,访问更稳定);
  2. 粘贴提前获取的API Key(格式为sk-xxxxxxxx),回车确认;
  3. 部分模型需浏览器打开链接完成账号授权,按提示操作即可。

3. 基础功能配置

  • 技能包(Skill):新手直接选No跳过,后续按需安装;
  • 记忆功能(Hooks):选中session-memory(启用多轮对话记忆,避免重复说明需求),其他默认;
  • 配置完成后,系统会自动启动Gateway网关服务,默认端口18789

4. 打开管理控制台

配置完成后,浏览器会自动打开本地控制台,手动访问地址:

http://127.0.0.1:18789

首次进入需输入初始化生成的配置Token(妥善保存,丢失需重新初始化)。

四、对接聊天软件(以飞书为例,国内常用)

OpenClaw支持WhatsApp、Telegram、飞书、钉钉、微信等平台,飞书配置难度低、稳定性高,以下为详细对接步骤,其他平台操作逻辑类似。

1. 安装飞书插件

在终端/PowerShell执行插件安装命令:

openclaw plugins install @m1heng-clawd/feishu # 进入插件目录完成依赖安装cd /root/.openclaw/extensions/feishu/ &&npminstall--verbose

2. 飞书开放平台创建应用

  1. 访问飞书开放平台:https://open.feishu.cn/app/,登录后点击创建企业自建应用
  2. 填写应用名称(如「大龙虾AI助手」),选择图标,点击创建
  3. 进入应用管理页,点击添加应用能力 → 选择机器人 → 点击添加

3. 配置飞书应用权限与事件

(1)批量导入权限
  1. 进入应用管理页权限管理 → 点击批量导入权限

粘贴以下JSON代码,点击导入(核心权限,确保机器人能收发消息):

{"scopes":{"tenant":["contact:user.base:readonly","im:chat","im:message","im:message:send_as_bot","im:resource"],"user":[]}}
(2)事件订阅配置
  1. 进入事件与回调 → 事件配置选择长连接,点击保存
  2. 点击添加事件 → 选择消息与群组 → 勾选im.message.receive_v1(接收消息事件,必选);
  3. 订阅方式选择使用长连接,无需填写回调地址,自动生效。
(3)发布应用
  1. 进入版本管理与发布 → 点击新建版本,填写版本号和描述;
  2. 点击保存并发布,飞书应用配置完成(未发布则配置不生效)。

4. OpenClaw绑定飞书应用

  1. 按提示输入飞书应用的App IDApp Secret(在飞书开放平台「凭证基础信息」中复制);

验证状态:

openclaw status 

显示Gateway running即绑定成功。

重启网关服务,使配置生效:

openclaw gateway restart 

在终端执行命令,添加飞书通信渠道:

openclaw channels add

5. 飞书端测试使用

  1. 打开飞书APP,进入工作台 → 找到创建的「大龙虾AI助手」,点击进入私聊窗口;
  2. 发送任意消息(如「你好」「整理我的今日日程」),收到机器人回复即对接完成。

五、基础使用与常用命令

1. 核心使用方式

在绑定的聊天软件中直接发送自然语言指令,机器人即可执行操作,例如:

  • 邮件处理:「帮我整理上周的未读邮件,提取会议纪要」;
  • 文件管理:「将桌面PDF文件按日期归档到文档文件夹」;
  • 系统操作:「执行shell命令查看电脑CPU使用率」;
  • 定时任务:「每天早上9点给我发送今日待办事项」。

2. 常用终端命令汇总

功能命令
查看版本openclaw --version
查看运行状态openclaw status
启动/停止/重启机器人openclaw start/stop/restart
重新初始化配置openclaw onboard
重启网关服务openclaw gateway restart
查看已安装插件openclaw plugins list
安装插件openclaw plugins install 插件名
卸载插件openclaw plugins uninstall 插件名
查看帮助openclaw --help

六、常见问题与避坑指南

1. 安装时卡在node-gyp rebuild

原因:缺少Python和C++编译工具;
解决

  • Windows:安装Visual Studio Build Tools和CMake;
  • macOS:执行xcode-select --install安装Xcode命令行工具;
  • Linux:执行sudo apt install build-essential python3

2. Windows提示「系统找不到指定的路径」

原因:系统组件被精简、WSL未启用或Git环境未配置;
解决

  1. 安装Git(官网:https://git-scm.com/download/win),安装后重启电脑
  2. 启用WSL2:在PowerShell执行wsl --install

清理npm缓存并重装:

npm cache clean --force npm install -g openclaw@latest 

3. 飞书配置提示「未建立长连接」

解决

  1. 检查App ID和App Secret是否输入正确;
  2. 等待1-2分钟再重新保存长连接配置(网络延迟导致);
  3. 执行openclaw gateway restart重启网关,再重新配置。

4. 聊天软件发送消息无回复

排查步骤

  1. 执行openclaw status确认网关服务正常运行;
  2. 检查聊天软件应用的事件订阅是否添加im.message.receive_v1
  3. 确认应用已在飞书开放平台发布(未发布无法收发消息);
  4. 查看网关日志:openclaw gateway --verbose,定位错误原因。

5. 国内网络下载依赖卡顿/失败

解决

  1. 配置国内npm镜像:npm config set registry https://registry.npmmirror.com
  2. 使用代理工具,或手动下载离线安装包进行安装。

七、进阶优化(可选)

  1. 本地模型部署:修改.env文件中的MODEL_PROVIDERAPI_KEY,支持本地运行Llama、Qwen等模型,完全脱离外网。
  2. 权限限制:在config.json中设置allowed_commandsdenied_commands,禁止机器人执行危险shell命令,提升安全性。

Docker部署:适合需要7×24小时运行的用户,容器化部署更稳定:

git clone https://github.com/openclaw/openclaw.git cd openclaw docker compose up -d openclaw-gateway 

汉化适配:国内用户建议安装社区汉化版,优化微信/企业微信支持:

npminstall-g openclaw-cn@latest 

八、注意事项

  1. 隐私安全:OpenClaw默认本地部署,数据不上传,但建议不要在装有重要商业/隐私数据的电脑上运行,可使用闲置设备或云端虚拟机(VPS);
  2. 版本兼容:避免使用最新版(官方频繁更新易出问题),新手建议安装稳定版:npm install -g [email protected](替换为实际稳定版本号);
  3. 服务保活:本地部署时,关闭终端/PowerShell会导致网关服务停止,可使用pm2等工具实现后台保活。

原文链接:https://www.cnblogs.com/seozimt/p/19634519

Read more

Flutter 三方库 algolia_client_recommend 的鸿蒙化适配指南 - 打造 AI 驱动的个性化推荐引擎、助力鸿蒙端电商与内容应用转化率倍增

Flutter 三方库 algolia_client_recommend 的鸿蒙化适配指南 - 打造 AI 驱动的个性化推荐引擎、助力鸿蒙端电商与内容应用转化率倍增

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 algolia_client_recommend 的鸿蒙化适配指南 - 打造 AI 驱动的个性化推荐引擎、助力鸿蒙端电商与内容应用转化率倍增 前言 在 OpenHarmony 鸿蒙应用全场景连接的商业版图中,“信息找人”已成为提升流量价值的核心逻辑。无论是电商应用的“经常一起购买”,还是内容平台的“相关推荐”,高质量的个性化算法能显著降低用户的决策成本。algolia_client_recommend 作为一个连接 Algolia 顶尖 AI 推荐服务的专业客户端,为开发者提供了一套开箱即用的推荐逻辑封装。本文将详述如何在鸿蒙端利用此库构建“读懂用户”的智能化交互。 一、原原理分析 / 概念介绍 1.1 基础原理 algolia_client_recommend 的核心逻辑是 基于意图建模的异步推荐查询与联合过滤机制

Plottable高级图表制作:从散点图到堆叠面积图的10种实现方法

Plottable高级图表制作:从散点图到堆叠面积图的10种实现方法 【免费下载链接】plottable:bar_chart: A library of modular chart components built on D3 项目地址: https://gitcode.com/gh_mirrors/pl/plottable Plottable是一个基于D3.js构建的模块化图表组件库,为开发者提供了创建灵活、定制化图表的强大工具。这个开源项目专注于"组合优于配置"的理念,让你能够像搭积木一样构建复杂的图表系统。通过Plottable的高级图表制作功能,你可以轻松实现从基础散点图到复杂堆叠面积图的各种数据可视化需求。😊 为什么选择Plottable进行高级图表制作? Plottable不是一个传统的图表库,而是一个图表组件库。这意味着你拥有前所未有的灵活性来创建自定义图表。与直接使用D3相比,Plottable提供了更高层次的抽象,让图表制作变得更加简单快捷;与传统图表库相比,它又提供了无与伦比的定制能力。 核心关键词:Plottable图表制作、D3图表组件、高级数据可

Whisper-large-v3长文本处理:万字级语音转写+智能段落划分演示

Whisper-large-v3长文本处理:万字级语音转写+智能段落划分演示 1. 这不是普通语音转文字——它能读懂万字长录音的“呼吸节奏” 你有没有试过把一场90分钟的技术分享录下来,想转成文字整理笔记,结果发现: * 普通工具卡在3分钟就报错? * 转出来的文字密不透风,全是连在一起的大段落,根本没法读? * 中英文混杂的发言,识别错一半,还得逐句核对? 这次我们实测的 Whisper-large-v3 Web 服务,直接绕开了这些坑。它不只是“把声音变成字”,而是真正理解一段长语音的语义节奏——自动识别说话人停顿、话题切换、语气转折,再把万字转录结果智能切分成逻辑清晰、可读性强的自然段落。 这不是调参炫技,而是面向真实工作流的工程优化:会议纪要、课程听讲、访谈整理、播客文稿……所有需要“听完再消化”的场景,它都能一步到位。 本文全程基于 by113小贝 二次开发的本地化部署版本,不依赖任何云端API,所有音频数据留在你自己的机器里。下面带你从零跑通万字语音转写全流程,重点看它怎么把一整段27分钟的讲座录音,变成结构分明、带时间戳、可直接复制使用的中文文稿。

语音转写文本润色:Llama-Factory助力ASR结果后处理

Llama-Factory助力ASR文本后处理:让语音转写真正“可用” 在智能会议系统、庭审记录数字化、远程医疗问诊等场景中,自动语音识别(ASR)早已不再是“能不能听清”的问题,而是“转出来的文字能不能直接用”的挑战。即便现代ASR引擎的词错率已低于10%,其原始输出仍常表现为无标点、断句混乱、同音错别字频出的“口语流”,例如: “那个我们明天三点开会然后讨论项目进度请各部门负责人参加” 这样的文本显然无法直接归档或生成纪要。用户需要额外投入大量人力进行校对和润色——这不仅抵消了自动化带来的效率优势,还可能引入新的错误。 于是,一个关键环节浮出水面:ASR后处理。而近年来,大语言模型(LLM)正成为这一环节的核心驱动力。不过,通用大模型如通义千问、ChatGLM虽然语法能力强,却往往对领域术语不敏感,容易“过度发挥”。真正的解法,是基于真实转写数据微调一个专用的文本修正模型。 这时,Llama-Factory 出现了。它不是一个简单的训练脚本集合,而是一套完整的大模型定制流水线,把从数据准备到模型部署的复杂工程封装成可操作的工具链。更重要的是,它让没有深度学习背景的工程师也