OpenClaw 安装 + 接入飞书机器人完整教程

OpenClaw 安装 + 接入飞书机器人完整教程

OpenClaw 曾用名:ClawdBot → MoltBot → OpenClaw(同一软件,勿混淆)
适用系统:Windows 10/11
最后更新:2026年3月

一、什么是 OpenClaw?

OpenClaw 是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。

与普通 AI 聊天机器人的核心区别:

  • 真正的执行能力:不只回答问题,能实际操作你的电脑
  • 24/7 全天候待命:睡觉时也能主动完成任务
  • 完全开源免费:数据完全掌控在自己手中
  • 支持国内平台:飞书、钉钉等均已支持接入

二、安装前准备:安装 Node.js

建议提前手动安装 Node.js(版本 v22.x 以上),可加快后续安装速度并减少意外。

官方下载地址:https://nodejs.org/zh-cn/download


三、安装 OpenClaw

1. 设置 PowerShell 执行权限

管理员身份运行 PowerShell(Win 键搜索 → 右键 → 以管理员身份运行),依次执行:

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser Set-ExecutionPolicy-Scope Process-ExecutionPolicy Bypass 

2. 执行一键安装命令

iwr-useb https://openclaw.ai/install.ps1 |iex

安装过程会自动完成:检测系统环境、安装依赖、下载核心文件、配置环境变量,并进入配置向导。


四、初始配置向导

1. 风险告知

左方向键 ← 选择 Yes,回车确认继续。

2. 选择 QuickStart 模式

3. 配置 AI 模型 API Key

推荐使用国内智谱 GLM 模型,成本低且门槛低。

4. 选择模型

选择 GLM-4.7(智谱当前旗舰模型)或其他你已有 Key 的模型。

5. 跳过通讯平台配置

飞书配置较复杂,此处选择 Skip,后续单独配置。

6. 跳过 Skills 配置

选择 No,后续通过 UI 界面配置。

7. 开启 Hooks

空格键选中,再按回车确认。

8. 启动服务并打开 UI 界面

服务启动后,约等待 30 秒,选择 Open the Web UI,浏览器自动打开管理界面:

http://127.0.0.1:18789 

五、接入飞书机器人

第一步:创建飞书应用

  1. 打开飞书开放平台:https://open.feishu.cn
  2. 点击右上角进入开发者后台
  3. 点击创建应用,填写应用名称和描述
  4. 进入应用详情,记录下 App IDApp Secret

第二步:添加机器人能力

在应用详情页,找到添加应用能力,选择并添加机器人

第三步:配置权限

权限管理页面,开通以下权限(即时通讯相关权限全部开通):

  • 获取与发送单聊、群组消息
  • 读取用户基本信息
  • 获取通讯录基本信息

第四步:创建版本并发布

  1. 版本管理中创建新版本
  2. 提交发布,状态为在线应用
  3. 前往飞书客户端完成审批

第五步:安装飞书插件

打开 PowerShell,执行:

openclaw plugins install @m1heng-clawd/feishu 

第六步:配置飞书插件

安装完成后,新开一个 PowerShell 窗口,执行:

openclaw config 

按照向导依次完成:

步骤操作
选择渠道选择飞书
选择配置链接选择对应链接
填写凭证输入 App ID 和 App Secret
选择域名选择中国区域
接受群组聊天确认开启
完成配置选择 Yes → Open → 继续

配置完成后重启服务使配置生效:

openclaw gateway stop openclaw gateway start

第七步:飞书后台设置事件回调

  1. 回到飞书开放平台 → 应用详情 → 事件订阅
  2. 选择使用长连接接收事件
  3. 点击添加事件,添加接收消息事件
  4. 重新发布版本(步骤同上)

第八步:开始使用

打开飞书客户端,找到你创建的机器人,直接发消息即可指挥 OpenClaw 干活!


六、常用命令速查

命令功能
openclaw onboard重新进入配置向导
openclaw status查看运行状态
openclaw health健康检查
openclaw gateway start启动服务
openclaw gateway stop停止服务
openclaw update更新到最新版本
openclaw doctor诊断问题
openclaw uninstall卸载 OpenClaw

七、常见问题

Q:安装飞书插件提示 spawn npm ENOENT

这是 OpenClaw 在 Windows 上的已知 bug。找到以下文件:

C:\Users\你的用户名\AppData\Roaming\fnm\node-versions\v22.x.x\installation\node_modules\openclaw\dist\process\exec.js 

找到 runCommandWithTimeout 函数中的 spawn 调用,在其前面添加 Windows npm 兼容处理:

let command = argv[0];let useShell =false;if(process.platform ==="win32"&& path.basename(command)==="npm"){ useShell =true;}const child =spawn(command, argv.slice(1),{ stdio, cwd,env: resolvedEnv,shell: useShell,});

Q:提示"openclaw 命令找不到"

关闭所有 PowerShell 窗口,重新打开后重试。如仍不行,重启电脑。


Q:安装卡住不动

Ctrl+C 中断,执行 openclaw doctor 检查问题,确认防火墙设置是否阻止了网络请求。


Q:端口 18789 被占用

openclaw gateway --port 18790 

换用其他端口启动服务。


八、费用说明

  • OpenClaw 软件本身:完全免费
  • 主要费用来源:AI 模型 API 调用(推荐使用智谱 GLM 等国内模型,成本更低)

Read more

Stable Diffusion(SD)完整训练+推理流程详解(含伪代码,新手友好)

Stable Diffusion(SD)完整训练+推理流程详解(含伪代码,新手友好)

Stable Diffusion(SD)的核心理论基石源自论文《High-Resolution Image Synthesis with Latent Diffusion Models》(LDM),其革命性创新在于将扩散模型从高维像素空间迁移至 VAE 预训练的低维潜空间,在大幅降低训练与推理的计算成本(相比像素级扩散模型节省大量 GPU 资源)的同时,通过跨注意力机制实现文本、布局等多模态条件控制,兼顾了生成质量与灵活性。本文将基于这一核心思想,从数据预处理、模型训练、推理生成到 LoRA 轻量化训练,一步步拆解 SD 的完整技术流程,每个关键环节均搭配伪代码,结合实操场景,理解 SD 的工程实现。 论文地址:https://arxiv.org/pdf/2112.10752 论文代码:https://github.com/CompVis/latent-diffusion

ESP32 小智 AI 机器人入门教程从原理到实现(自己云端部署)

此博客为一篇针对初学者的详细教程,涵盖小智 AI 机器人的原理、硬件准备、软件环境搭建、代码实现、云端部署以及优化扩展。文章结合了现有的网络资源,取长补短,确保内容易于理解和操作。 简介: 本教程将指导初学者使用 ESP32 微控制器开发一个简单的语音对话机器人“小智”。我们将介绍所需的基础原理、硬件准备、软件环境搭建,以及如何编写代码实现语音唤醒和与云端大模型的对接。通过本教程,即使没有深厚的 AI 或嵌入式经验,也可以一步步制作出一个能听懂唤醒词并与人对话的简易 AI 机器人。本教程提供详细的操作步骤、代码示例和图示,帮助您轻松上手。 1. 基础原理 ESP32 架构及其在 AI 领域的应用: ESP32 是一款集成 Wi-Fi 和蓝牙的双核微控制器,具有较高的主频和丰富的外设接口,适合物联网和嵌入式 AI 应用。特别是新版的 ESP32-S3 芯片,不仅运行频率高达 240MHz,还内置了向量加速指令(

手把手教学:Windows环境部署Qwen2.5对话机器人

手把手教学:Windows环境部署Qwen2.5对话机器人 1. 教程目标与适用场景 1.1 学习目标 本文将带你从零开始,在 Windows 操作系统 上完成 Qwen/Qwen2.5-0.5B-Instruct 对话机器人的本地化部署。最终你将获得一个具备流式输出能力、支持中文问答与代码生成的 Web 聊天界面,无需 GPU 即可运行。 通过本教程,你将掌握: * 如何配置适用于大语言模型推理的 Python 环境 * 如何加载 Hugging Face 或 ModelScope 上的 Qwen2.5 模型 * 如何使用 Gradio 构建交互式 Web 聊天界面 * 如何实现低延迟、高响应的 CPU 推理服务 1.2

2026 AI元年:AI原生重构低代码,开发行业迎来范式革命

2026 AI元年:AI原生重构低代码,开发行业迎来范式革命

前言         2026 年,被全球科技产业正式定义为AI 规模化落地元年。 从实验室走向生产线、从对话交互走向系统内核、从锦上添花的功能插件走向底层驱动引擎,AI 不再是概念炒作,而是重构软件研发、企业服务、数字化转型的核心生产力。低代码开发平台,作为过去十年企业数字化落地最轻量化、最普及的工具,在 2026 年迎来最彻底的一次变革:AI 全面注入低代码,从 “可视化拖拽” 迈向 “意图驱动生成”。         长期以来,低代码行业始终面临两大争议:一是被技术开发者嘲讽 “只能做玩具系统,无法支撑企业级复杂场景”;二是被业务人员抱怨 “依旧需要懂技术、配规则、调逻辑,门槛依然很高”。而随着大模型技术成熟、国产模型规模化商用、AI 工程化能力落地,这一切正在被改写。         JNPF 作为企业级低代码平台的代表,在 2026 年全面完成 AI 原生架构升级,深度对接 Deepseek、通义千问、