手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

当前版本 OpenClaw(2026.2.22-2)已内置飞书插件,无需额外安装。

你有没有想过,在飞书里直接跟 AI 对话,就像跟同事聊天一样自然?

今天这篇文章,带你从零开始,用 OpenClaw 搭建一个飞书 AI 机器人。全程命令行操作,10 分钟搞定。


一、准备工作

1.1 安装 Node.js(版本 ≥ 22)

OpenClaw 依赖 Node.js 运行,首先确保你的 Node 版本不低于 22。

推荐使用 nvm 管理 Node 版本,打开终端执行:

# 安装 nvmcurl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash# 加载 nvm(避免重启终端)\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 验证安装node -v # 应输出 v24.13.1npm -v # 应输出 11.8.0
📎 Node.js 官网:https://nodejs.org/en/download
Node.js 下载页面

1.2 安装 OpenClaw

进入 OpenClaw 官网 https://openclaw.ai/ ,我们通过 npm 全局安装:

# 安装 OpenClawnpm i -g openclaw # 运行引导向导(加 --install-daemon 安装守护进程,让 Gateway 在后台持续运行) openclaw onboard --install-daemon 
💡 加了 --install-daemon 后,Gateway 会作为系统守护进程自动启动(macOS 用 LaunchAgent,Linux 用 systemd),重启电脑也不会丢。如果不加,后面启动 openclaw gateway 时关掉终端机器人就断了。
📎 GitHub 地址:https://github.com/openclaw/openclaw
OpenClaw 官网

二、配置 AI 模型

OpenClaw 需要接入一个大语言模型作为"大脑"。你可以使用 Anthropic、OpenAI 等官方 API,也可以通过第三方中转服务获取。

这里以 Claude Haiku 为例。Haiku 是 Anthropic 的轻量级模型,响应快、成本低,非常适合日常对话场景。如果你需要更强的推理能力,也可以换成 claude-sonnetclaude-opus 等模型。

在终端依次执行以下命令:

# 1. 设置 API 地址 openclaw config set -- models.providers.my_api.baseUrl "你的API地址"# 2. 设置 API 类型 openclaw config set -- models.providers.my_api.api "openai-completions"# 3. 设置 API Key openclaw config set -- models.providers.my_api.apiKey "你的API密钥"# 4. 设置默认模型(可替换为其他模型) openclaw config set -- agents.defaults.model.primary "my_api/claude-haiku-4-5-20251001"
⚠️ 注意:config set 和路径之间的 -- 是两个英文半角短横线,不要从网页复制,手动敲键盘上的减号键两次。

如果你不习惯命令行,也可以通过 Dashboard 配置:

  1. 启动 Gateway 后,浏览器打开 http://127.0.0.1:18789/
  2. 点击顶部 Config 标签页,切换到 Raw JSON 编辑器
  3. 找到 models.providers 部分,直接编辑 JSON
  4. 保存后 Gateway 自动热加载生效,无需重启
💡 Dashboard 的 Form 表单视图对自定义 Provider 支持有限,建议直接用 Raw JSON 编辑器修改。

三、创建飞书应用

3.1 进入飞书开放平台

访问 https://open.feishu.cn/app ,如果没有账号,用手机号注册即可。

3.2 创建企业自建应用

按照下图步骤操作:

创建应用 - 步骤1
创建应用 - 步骤2
创建应用 - 步骤3
创建应用 - 步骤4

创建完成后点击发布

3.3 记录 App ID 和 App Secret

这两个值后面配置 OpenClaw 时要用到,务必保存好。

App ID 和 App Secret

四、连接 OpenClaw 与飞书

回到终端,将飞书应用的凭证写入 OpenClaw 配置:

# 设置飞书 App ID openclaw config set -- channels.feishu.appId "你的AppID"# 设置飞书 App Secret openclaw config set -- channels.feishu.appSecret "你的AppSecret"# 启动 OpenClaw Gateway openclaw gateway 
💡 新版 OpenClaw 已内置飞书支持,不需要额外安装插件。

五、配置飞书机器人权限

回到飞书开放平台,为应用添加必要的权限和事件订阅。

在「权限管理」页面,搜索 im,将 im 相关的权限全部勾选(包括消息读取、发送、群组管理等),确保机器人能正常收发消息。

💡 OpenClaw 使用 WebSocket 模式连接飞书,不需要配置事件订阅的回调地址(Request URL),保持为空即可。
权限配置 - 步骤1
权限配置 - 步骤2
权限配置 - 步骤3

修改完权限后,需要重新发布一个版本,点击确认发布。

重新发布

六、首次使用:授权配对

在手机飞书上给机器人发一条消息,你会收到类似这样的提示:

OpenClaw: access not configured. Your Feishu user id: ou_72c25a66a2248f494484a792b18d0c12 Pairing code: RYXBPRNJ Ask the bot owner to approve with: openclaw pairing approve feishu RYXBPRNJ 

这是 OpenClaw 的安全机制,防止陌生人使用你的机器人。需要两步操作:

6.1 开启权限

在终端中点击提示的链接,开启相关权限。

开启权限 - 步骤1
开启权限 - 步骤2

6.2 授权配对

在终端执行配对命令,将你的飞书账号绑定为授权用户:

openclaw pairing approve feishu RYXBPRNJ 
RYXBPRNJ 替换为你实际收到的配对码。
配对成功
⚠️ 每创建一个新的飞书机器人应用,都需要重新走一遍这个配对流程。

七、开始使用

一切就绪,现在可以在飞书里愉快地和 AI 对话了 🎉

使用效果

写在最后

整个流程总结下来就三件事:

  1. 装 OpenClaw:npm 一行命令搞定
  2. 建飞书应用:拿到 App ID 和 Secret
  3. 连起来:配置好模型和飞书凭证,启动 Gateway

如果你在部署过程中遇到问题,欢迎留言交流。

Read more

在Android设备上利用Termux安装llama.cpp并启动webui

llama.cpp没有发布官方aarch64的二进制,需要自己编译,好在Termux已经有编译好的包可用。 按照文章在安卓手机上用vulkan加速推理LLM的方法, 1.在Termux中安装llama-cpp软件 ~ $ apt install llama-cpp Reading package lists... Done Building dependency tree... Done Reading state information... Done E: Unable to locate package llama-cpp ~ $ apt update Get:1 https://mirrors.tuna.tsinghua.edu.cn/termux/apt/termux-main stable InRelease [14.0 kB] Get:2 https://mirrors.

HTML————更实用于后端宝宝们学习的前端

HTML————更实用于后端宝宝们学习的前端

博主主攻后端,但是毕竟要做网站,我们来学习一点前端的知识,一共有三节,学完就能做一点小小的页面啦; 1.1 HTML基础 什么是HTML呢,他是超文本标记语言,还记得HTTP是啥不,HTTP是超文本传输协议,别忘了哈,超文本就是字面意思,它的能力完全超过了文本,图片,链接,音频都可以放上去,标记语言,就是由标签构成的语言; HTML的所有代码基本都是标签 <h1>我是一级标题</h1> 这个括号<h1> 就是标签,我们学习HTML大部分就是要学习这些标签,注意我们一般用两个标签来表示开始和结束,结束的标签要加上/,开始和结束标签之间就是标签内容,开始标签中可能会带有属性,比如 <h1>我是一级标题</h1> 这就是相当于给h1标签设置了一个唯一标识符, 下面来看看HTML个基本结构,  第一行不用管,第二行HTML是整个html文件的跟标签,

GLM-4.6V-Flash-WEB适用于哪些类型的图像问答场景?

GLM-4.6V-Flash-WEB适用于哪些类型的图像问答场景? 在如今的智能交互时代,用户不再满足于“上传图片 → 返回标签”的简单视觉识别模式。越来越多的应用场景要求系统不仅能“看见”图像内容,还要能“理解”并“回答”复杂问题——比如学生对着课本截图提问电路原理,客服系统自动解析用户发来的产品照片,或是企业从扫描报表中提取关键数据。 正是在这样的需求推动下,多模态大模型正从实验室走向真实业务前线。而 GLM-4.6V-Flash-WEB 的出现,恰好填补了高性能与可落地之间的空白:它不像某些重型模型那样动辄需要A100集群支撑,也不像传统OCR+规则引擎那样缺乏语义推理能力。这款由智谱AI推出的轻量化视觉语言模型,专为Web服务和高并发场景设计,在毫秒级响应与较强图文理解之间找到了极佳平衡点。 从一张菜单说起:什么是真正的图像问答? 设想这样一个场景:你走进一家餐厅,拍下纸质菜单上传到某个AI助手,然后问:“最贵的菜是什么?” 如果系统只能做OCR,它会返回一串文字列表;如果只是图像分类,可能告诉你“这是一张食物相关的图”。但真正有用的回应应该是: “牛排套餐,价格为

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例 📌 引言 在前端开发中,我们经常需要处理高频事件(如输入框输入、滚动、窗口调整大小等)。如果不加限制,浏览器会频繁触发回调函数,导致性能问题,甚至页面卡顿。 防抖(Debounce) 和 节流(Throttle) 是两种优化方案,可以有效控制事件触发的频率,提高应用的性能和用户体验。 本篇文章将详细解析 防抖和节流的原理、适用场景及代码实现,帮助你更好地优化前端应用。 1. 什么是防抖(Debounce)? 📝 概念 防抖是一种在事件触发后延迟执行的技术,如果在延迟期间事件被再次触发,计时器会重置,重新计算延迟时间。 核心思想:短时间内多次触发,只执行最后一次。 📌 适用场景 * 搜索框输入(防止用户每次输入都发送请求) * 窗口调整大小(resize)(防止短时间内多次触发计算) * 表单输入验证(用户停止输入后再进行验证) ✅ 代码实现 functiondebounce(fn,