保姆级教程:Windows下安装OpenClaw + 接入飞书机器人,看这一篇就够了!

文章目录

前言

OpenClaw作为一个强大的开源AI Agent框架,与飞书结合可以大幅提升办公效率。本文将手把手教你如何在Windows系统上完成OpenClaw的安装,并成功接入飞书机器人。全文均为实测可用的步骤,附带排错命令,帮你避开常见坑点。

⚠️ 重要提示:隐私安全优先

在开始之前,有一个非常重要的提醒:由于OpenClaw这类自动化工具会深度接触你的系统和数据,如果你的电脑存有重要的商业资料或个人隐私信息,强烈建议使用一台干净的备用电脑,或者在阿里云、腾讯云等平台租用一个云端虚拟机(VPS)来运行。这样既能保护隐私,也能避免环境冲突 。

第一部分:Windows环境准备

1.1 系统要求

  • 操作系统:Windows 10/11 64位(专业版或企业版更佳)
  • 权限要求:全程需使用管理员权限运行PowerShell
  • 网络要求:确保网络通畅,能访问GitHub和npm源

1.2 安装nvm for Windows(推荐)

使用nvm可以方便地管理Node.js版本,避免版本冲突。

  1. 访问nvm-windows的GitHub发布页:https://github.com/coreybutler/nvm-windows/releases
  2. 下载最新的nvm-setup.exe安装包
  3. 一路点击"Next"完成安装

1.3 安装Node.js 22.x版本

OpenClaw要求Node.js 22或更高版本 。以管理员身份打开PowerShell(按Win键搜索PowerShell → 右键 → 以管理员身份运行),然后执行以下命令:

# 安装Node.js 22.x nvm install 22 # 使用安装好的版本 nvm use 22.22.0 

看到提示 Now using node v22.22.0 即表示成功。如果下载失败,也可以手动去Node.js官网下载安装 。

验证安装:

node --version npm --version 

第二部分:安装OpenClaw

2.1 一键安装脚本(推荐)

在管理员PowerShell中执行以下命令:

# 如果遇到执行策略报错,先解除限制Set-ExecutionPolicy-ExecutionPolicy RemoteSigned -Scope CurrentUser # 一键安装OpenClawiwr-useb https://openclaw.ai/install.ps1 |iex

如果网络不稳定,可以使用国内镜像:

iwr-useb https://clawd.org.cn/install.ps1 |iex

安装过程会自动下载并配置Node.js和OpenClaw核心文件,通常需要等待5-10分钟 。

2.2 初始化配置

安装完成后会自动进入配置流程。如果意外关闭,可以重新执行:

openclaw onboard --flow quickstart 

交互配置步骤(按提示操作):

  1. 风险提示I understand this is powerful and inherently risky. Continue? → 输入 Yes
  2. 初始化模式:选择 QuickStart(直接回车)
  3. 模型提供商:建议先选择 Skip for now 跳过,后续再配置
  4. 通讯渠道:同样选择 Skip for now 跳过(飞书稍后单独配置)
  5. 技能配置:选择 No 跳过,后续可根据需要安装

⚠️ 常见问题:如果执行openclaw命令提示"无法识别",只需关闭当前PowerShell,重新用管理员权限打开一个新窗口即可。这是因为环境变量还未刷新 。

2.3 启动服务并验证

# 启动网关服务 openclaw gateway start# 访问Web控制台(会自动打开浏览器) openclaw dashboard 

浏览器会自动打开控制台地址:http://127.0.0.1:18789/。发一条消息测试,有回复就说明安装成功 。

第三部分:配置大模型API(核心前提)

OpenClaw的自然语言理解能力依赖大模型,需要先配置API密钥。这里以阿里云百炼为例 :

  1. 访问阿里云百炼控制台,进入"密钥管理"页面
  2. 点击"创建API-Key",复制生成的密钥

在OpenClaw中配置:

# 配置百炼API-Key(替换为你的实际密钥) openclaw config set models.providers.bailian.apiKey "你的百炼API-Key"# 设置默认模型 openclaw config set agents.defaults.model.primary "bailian/qwen3-plus"# 重启网关使配置生效 openclaw gateway restart 

第四部分:飞书机器人配置(核心步骤)

4.1 安装飞书插件

在管理员PowerShell中执行:

openclaw plugins install @m1heng-clawd/feishu 

插件安装可能需要几分钟,期间可以继续后续的飞书开放平台配置 。

4.2 创建飞书企业自建应用

  1. 登录飞书开放平台,进入"开发者后台"
  2. 点击"创建企业自建应用",填写基本信息:
    • 应用名称:如"OpenClaw智能助手"
    • 应用描述:简要说明用途
    • 应用图标:上传一个图标(可选)
  3. 点击"创建"

4.3 添加机器人能力

在应用详情页左侧导航栏,找到"添加应用能力" → 选择"机器人" → 点击"添加" 。

4.4 获取核心凭证

进入"凭证与基础信息"页面,复制以下信息并妥善保存(后续配置需要使用):

  • App ID:应用的唯一标识
  • App Secret:应用的安全凭证

4.5 批量导入权限

进入"权限管理"页面,点击"批量导入/导出权限",粘贴以下JSON配置,然后点击"确认新增权限":

{"scopes":{"tenant":["aily:file:read","aily:file:write","contact:user.employee_id:readonly","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}

这个配置包含了机器人必需的8项核心权限 。

4.6 配置事件订阅

  1. 进入"事件与回调"页面 → "事件配置"页签
  2. 订阅方式:选择"使用长连接接收事件" → 点击"保存"⚠️ 注意:如果报错"未建立长连接",说明OpenClaw网关未正常运行。返回PowerShell执行openclaw gateway restart,等1-2分钟再重试 。
  3. 保存成功后,点击"添加事件",搜索并添加 im.message.receive_v1(接收消息事件)
  4. 如果不添加此事件,机器人将无法收到任何消息

4.7 在OpenClaw中配置飞书凭证

方式一:通过命令行配置

# 配置App ID和App Secret(替换为实际值) openclaw config set channels.feishu.appId "cli_xxxxx" openclaw config set channels.feishu.appSecret "your_app_secret"# 重启网关 openclaw gateway restart 

方式二:通过Web UI配置

  1. 访问OpenClaw控制台 http://127.0.0.1:18789/
  2. 进入"Channels"或"通道设置"页面
  3. 找到飞书配置,填入App ID和App Secret

4.8 发布应用版本

  1. 回到飞书开放平台,进入"版本管理与发布"页面
  2. 点击"创建版本"
  3. 填写版本号(如v1.0.0)和更新说明
  4. 选择应用可见范围(可先选"指定部门"用于测试)
  5. 点击"保存"并提交审批
  6. 若自己就是管理员,可直接审批通过

4.9 配对操作

  1. 在飞书客户端(电脑端或手机端)搜索并添加刚刚创建的机器人
  2. 向机器人发送任意消息(如"你好")
  3. 机器人会自动回复一个配对码

复制这个配对码,在OpenClaw控制台中执行:

openclaw pairing approve feishu 配对码 

或者通过Web UI输入配对码完成绑定

配对成功后,你就可以在飞书中与OpenClaw愉快交流了!也可以把机器人添加到公司群里,让所有小伙伴都能用 。

第五部分:常用排错命令

在配置过程中遇到问题,优先使用以下命令自查 :

命令作用
openclaw gateway status查看网关服务运行状态
openclaw gateway restart重启网关(修改配置后必须执行)
openclaw doctor全面诊断系统环境,给出修复建议
openclaw logs follow实时查看日志,出bug基本靠它定位
openclaw config交互式修改配置
openclaw --version查看版本,验证安装是否成功

常见问题及解决方案

Q1:安装插件时报错怎么办?

A:先执行openclaw gateway restart重启网关,再重试安装。如果仍失败,查看日志openclaw logs follow定位具体原因 。

Q2:飞书配置时报"未建立长连接"?

A:这通常是OpenClaw网关未正常运行或网络不通。按顺序检查:

  1. openclaw gateway status确认网关运行中
  2. 18789端口是否被防火墙阻止
  3. 在飞书开放平台等待1-2分钟后重试保存

Q3:机器人收不到消息?

A:检查三点:

  1. 是否已添加im.message.receive_v1事件
  2. 应用版本是否已成功发布
  3. 是否已完成配对操作

Q4:Node.js版本不兼容?

A:OpenClaw要求Node.js 22+,执行node --version查看版本。如版本过低,用nvm切换:nvm install 22nvm use 22.22.0

进阶技巧:让AI学会发图片

OpenClaw默认的message工具在飞书上发送本地图片时可能存在问题(飞书收到的是文件路径而非图片)。解决方法是利用OpenClaw的TOOLS.md机制:

在OpenClaw工作区的TOOLS.md文件中,加入以下内容(可直接在对话中发给OpenClaw):

# 飞书发图片方法 用exec工具执行curl调飞书API,分三步: 1. 获取tenant_access_token 2. 上传图片获取image_key 3. 发送图片消息 具体命令参考飞书开放平台文档。 

OpenClaw的AI助手每次启动都会读取TOOLS.md,学会这个新技能。这就是OpenClaw的设计哲学:用自然语言给AI写"说明书" 。

总结

通过本文的详细步骤,你应该已经成功在Windows上安装了OpenClaw,并接入了飞书机器人。整个过程虽然步骤较多,但只要按顺序操作,就能顺利实现"飞书聊天窗口下达指令,OpenClaw自动执行任务"的高效协作模式 。

如果在配置过程中遇到问题,记得善用openclaw logs follow查看日志,它能帮你定位90%的问题。祝你在自动化办公的道路上一路畅通!

Read more

AIGC已经不是未来,而是现在:2025年最值得关注的6大趋势!

AIGC已经不是未来,而是现在:2025年最值得关注的6大趋势!

过去一年,AIGC(AI 生成内容)从“概念”彻底走向“落地”。无论你是程序员、产品经理、内容创作者,甚至是业余爱好者,AIGC 已经渗透到每一个内容生产链条中,以一种“你还没准备好,它已经来了”的节奏迅速发展。 本文将带你系统了解:2025 年最热门的 AIGC 内容形态、前沿产品、典型用例,以及未来趋势。 🎥 1. 文生视频已落地:Sora 等产品引爆创意革命         当 OpenAI 推出 Sora 时,整个 AI 圈都沸腾了。         只需一句提示词,比如: "一个穿太空服的熊猫在月球上弹钢琴"         Sora 就能输出秒级电影级视频片段。光影、动作、镜头感,全部一应俱全。 🔧 技术关键词:

Spec-Kit+Copilot打造AI规格驱动开发

Spec-Kit+Copilot打造AI规格驱动开发

作者:算力魔方创始人/英特尔创新大使 刘力 一,什么是Spec-Kit? 在传统的软件开发中,通常先有需求→ 写规格 → 再写代码;规格多数是“指导性文档”,而真正的业务逻辑和边界由程序员“翻译”出来。Spec-Driven Development(规格驱动开发)的理念是,将规格(spec)从“仅供参考”提升为可执行、可驱动的核心工件,直接引导后续设计、计划、任务拆解、实现等流程。spec-kit 是 GitHub 提供的一个工具集 / CLI / 模板库,用来在项目中落地这种流程! Github: https://github.com/github/spec-kit 二,搭建运行环境 本节将指导您从零开发搭建Spec-Kit的运行环境。 第一步:在Ubuntu24.04上安装uv: curl -LsSf

对于VScode中Copilot插件使用卡顿问题的解决办法

copilot卡顿主要是网络和内存占用原因。 VScode内存优化解决办法: 结合链接和我补充的基本都可以解决。 解决VSCode无缘无故卡顿的问题_vscode卡顿-ZEEKLOG博客 在VScode中打开setting.json文件,打开方法ctrl+shift+p,输入Preferences: Open User Settings (JSON), 然后添加如下代码: { "search.followSymlinks": false, "git.autorefresh": false, "editor.formatOnSave": false } 结合链接和我补充的基本都可以解决。 VScode代理问题: vscode copilot长时间没反应_vscode中copilot总是卡住-ZEEKLOG博客 配置代理的话两种方法,上面是一种,推荐两种结合起来用(不冲突) 还是在setting.json文件中,添加如下代码: { "http.proxy": "http://127.

llama.cpp量化模型部署实战:从模型转换到API服务

1. 为什么你需要关注llama.cpp:让大模型在普通电脑上跑起来 如果你对AI大模型感兴趣,肯定听说过动辄需要几十GB显存的“庞然大物”。想在自己的电脑上跑一个7B参数的模型,以前可能得配一张昂贵的专业显卡。但现在,情况不一样了。我今天要跟你聊的 llama.cpp,就是那个能让大模型“瘦身”并飞入寻常百姓家的神奇工具。 简单来说,llama.cpp是一个用C/C++编写的开源项目,它的核心目标只有一个:用最高效的方式,在消费级硬件(比如你的笔记本电脑CPU)上运行大型语言模型。它不像PyTorch那样是个庞大的深度学习框架,它更像一个“推理引擎”,专注于把训练好的模型,以最小的资源消耗跑起来。 我刚开始接触大模型部署时,也被各种复杂的依赖和巨大的资源需求劝退过。直到用了llama.cpp,我才发现,原来在我的MacBook Pro上,也能流畅地和Llama 2这样的模型对话。这背后的功臣,主要就是两点:纯C/C++实现带来的极致性能,以及模型量化技术带来的体积与速度革命。量化这个词听起来有点技术,你可以把它想象成给模型“压缩图片”

阿里云全品类 8 折券限时领,建站 / AI / 存储通用 立即领取