手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

手把手教你用 OpenClaw + 飞书,打造专属 AI 机器人

当前版本 OpenClaw(2026.2.22-2)已内置飞书插件,无需额外安装。

你有没有想过,在飞书里直接跟 AI 对话,就像跟同事聊天一样自然?

今天这篇文章,带你从零开始,用 OpenClaw 搭建一个飞书 AI 机器人。全程命令行操作,10 分钟搞定。


一、准备工作

1.1 安装 Node.js(版本 ≥ 22)

OpenClaw 依赖 Node.js 运行,首先确保你的 Node 版本不低于 22。

推荐使用 nvm 管理 Node 版本,打开终端执行:

# 安装 nvmcurl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh |bash# 加载 nvm(避免重启终端)\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 验证安装node -v # 应输出 v24.13.1npm -v # 应输出 11.8.0
📎 Node.js 官网:https://nodejs.org/en/download
Node.js 下载页面

1.2 安装 OpenClaw

进入 OpenClaw 官网 https://openclaw.ai/ ,我们通过 npm 全局安装:

# 安装 OpenClawnpm i -g openclaw # 运行引导向导(加 --install-daemon 安装守护进程,让 Gateway 在后台持续运行) openclaw onboard --install-daemon 
💡 加了 --install-daemon 后,Gateway 会作为系统守护进程自动启动(macOS 用 LaunchAgent,Linux 用 systemd),重启电脑也不会丢。如果不加,后面启动 openclaw gateway 时关掉终端机器人就断了。
📎 GitHub 地址:https://github.com/openclaw/openclaw
OpenClaw 官网

二、配置 AI 模型

OpenClaw 需要接入一个大语言模型作为"大脑"。你可以使用 Anthropic、OpenAI 等官方 API,也可以通过第三方中转服务获取。

这里以 Claude Haiku 为例。Haiku 是 Anthropic 的轻量级模型,响应快、成本低,非常适合日常对话场景。如果你需要更强的推理能力,也可以换成 claude-sonnetclaude-opus 等模型。

在终端依次执行以下命令:

# 1. 设置 API 地址 openclaw config set -- models.providers.my_api.baseUrl "你的API地址"# 2. 设置 API 类型 openclaw config set -- models.providers.my_api.api "openai-completions"# 3. 设置 API Key openclaw config set -- models.providers.my_api.apiKey "你的API密钥"# 4. 设置默认模型(可替换为其他模型) openclaw config set -- agents.defaults.model.primary "my_api/claude-haiku-4-5-20251001"
⚠️ 注意:config set 和路径之间的 -- 是两个英文半角短横线,不要从网页复制,手动敲键盘上的减号键两次。

如果你不习惯命令行,也可以通过 Dashboard 配置:

  1. 启动 Gateway 后,浏览器打开 http://127.0.0.1:18789/
  2. 点击顶部 Config 标签页,切换到 Raw JSON 编辑器
  3. 找到 models.providers 部分,直接编辑 JSON
  4. 保存后 Gateway 自动热加载生效,无需重启
💡 Dashboard 的 Form 表单视图对自定义 Provider 支持有限,建议直接用 Raw JSON 编辑器修改。

三、创建飞书应用

3.1 进入飞书开放平台

访问 https://open.feishu.cn/app ,如果没有账号,用手机号注册即可。

3.2 创建企业自建应用

按照下图步骤操作:

创建应用 - 步骤1
创建应用 - 步骤2
创建应用 - 步骤3
创建应用 - 步骤4

创建完成后点击发布

3.3 记录 App ID 和 App Secret

这两个值后面配置 OpenClaw 时要用到,务必保存好。

App ID 和 App Secret

四、连接 OpenClaw 与飞书

回到终端,将飞书应用的凭证写入 OpenClaw 配置:

# 设置飞书 App ID openclaw config set -- channels.feishu.appId "你的AppID"# 设置飞书 App Secret openclaw config set -- channels.feishu.appSecret "你的AppSecret"# 启动 OpenClaw Gateway openclaw gateway 
💡 新版 OpenClaw 已内置飞书支持,不需要额外安装插件。

五、配置飞书机器人权限

回到飞书开放平台,为应用添加必要的权限和事件订阅。

在「权限管理」页面,搜索 im,将 im 相关的权限全部勾选(包括消息读取、发送、群组管理等),确保机器人能正常收发消息。

💡 OpenClaw 使用 WebSocket 模式连接飞书,不需要配置事件订阅的回调地址(Request URL),保持为空即可。
权限配置 - 步骤1
权限配置 - 步骤2
权限配置 - 步骤3

修改完权限后,需要重新发布一个版本,点击确认发布。

重新发布

六、首次使用:授权配对

在手机飞书上给机器人发一条消息,你会收到类似这样的提示:

OpenClaw: access not configured. Your Feishu user id: ou_72c25a66a2248f494484a792b18d0c12 Pairing code: RYXBPRNJ Ask the bot owner to approve with: openclaw pairing approve feishu RYXBPRNJ 

这是 OpenClaw 的安全机制,防止陌生人使用你的机器人。需要两步操作:

6.1 开启权限

在终端中点击提示的链接,开启相关权限。

开启权限 - 步骤1
开启权限 - 步骤2

6.2 授权配对

在终端执行配对命令,将你的飞书账号绑定为授权用户:

openclaw pairing approve feishu RYXBPRNJ 
RYXBPRNJ 替换为你实际收到的配对码。
配对成功
⚠️ 每创建一个新的飞书机器人应用,都需要重新走一遍这个配对流程。

七、开始使用

一切就绪,现在可以在飞书里愉快地和 AI 对话了 🎉

使用效果

写在最后

整个流程总结下来就三件事:

  1. 装 OpenClaw:npm 一行命令搞定
  2. 建飞书应用:拿到 App ID 和 Secret
  3. 连起来:配置好模型和飞书凭证,启动 Gateway

如果你在部署过程中遇到问题,欢迎留言交流。

Read more

AI绘画新选择:Janus-Pro-7B一键部署与使用指南

AI绘画新选择:Janus-Pro-7B一键部署与使用指南 1. 为什么Janus-Pro-7B值得你关注 最近AI绘画领域又迎来一位实力派选手——Janus-Pro-7B。它不是另一个微调版Stable Diffusion,也不是简单套壳的多模态模型,而是DeepSeek团队推出的真正统一架构的多模态理解与生成模型。它的特别之处在于:既能看懂图片,又能根据文字画出高质量图像,且两者共享同一套核心逻辑。 很多用户反馈,用传统文生图模型时,经常遇到“提示词写得再细,画面也跑偏”的问题;而用图文理解模型时,又发现它只能回答“这是什么”,却无法进一步生成新内容。Janus-Pro-7B恰恰解决了这个割裂——它把视觉理解和图像生成放在同一个框架里协同优化,不是拼凑,而是融合。 更实际的好处是:你不需要分别部署两个模型、切换两套界面、学习两套操作逻辑。一个模型,两种能力,一次部署,即刻可用。尤其适合想快速验证创意、做轻量级内容生产的个人开发者、设计师和内容创作者。 它不追求参数堆砌,7B规模在本地或云上都能流畅运行;也不依赖复杂工作流,没有ComfyUI节点连线的门槛,打开就能用。如

AIGC产品经理面试题汇总|从 0 到 1 做 AIGC 产品,核心能力与面试考点全拆解

2026年,生成式AI已经彻底走完了从技术爆发到产业落地的关键周期。当通用大模型的格局逐步固化,垂直行业的AIGC应用遍地开花,AI产品经理早已从互联网行业的“加分岗”,变成了科技企业、传统产业数字化转型的核心刚需岗。 但市场始终存在严重的人才供需错配:传统产品经理懂用户、懂流程,却摸不透AIGC的技术边界与产品逻辑;技术背景的从业者懂模型、懂算法,却无法把技术能力转化为可落地的用户价值与商业闭环。这也导致了AIGC产品岗的面试呈现出极强的两极分化——背概念的候选人一抓一大把,能真正讲清“从0到1做一款AIGC产品”的人寥寥无几。 这篇文章,我们不止于罗列面试题,更要拆解AIGC产品经理的核心能力模型,还原从0到1操盘AIGC产品的全链路流程,深挖大厂高频面试题背后的考察逻辑,同时结合产业趋势给出前瞻性判断。无论是想入行AIGC领域的产品新人,还是想突破职业瓶颈的资深产品人,都能从中找到可复用的方法论与可落地的行动指南。 第一章 认知破界:AIGC产品经理的核心定位与底层认知 这是所有面试的开篇考点,也是做AIGC产品的底层逻辑。面试官问基础认知题,从来不是想听你背大模型的定

AI 智能编码工具:重塑开发效率的革命,从 GitHub Copilot 到国产新秀的全面解析

AI 智能编码工具:重塑开发效率的革命,从 GitHub Copilot 到国产新秀的全面解析

目录 引言 一、主流智能编码工具深度测评:从功能到实战 1. GitHub Copilot:AI 编码的 “开山鼻祖” 核心特性与实战代码 优缺点总结 2. Baidu Comate:文心大模型加持的 “国产之光” 核心特性与实战代码 优缺点总结 3. 通义灵码:阿里云的 “企业级编码助手” 核心特性与实战代码 优缺点总结 引言 作为一名拥有 8 年开发经验的程序员,我曾无数次在深夜对着屏幕反复调试重复代码,也因记不清框架语法而频繁切换浏览器查询文档。直到 2021 年 GitHub Copilot 问世,我才第一次感受到:AI 不仅能辅助编码,更能彻底改变开发模式。如今,智能编码工具已从 “尝鲜选项” 变为 “必备工具”,它们像经验丰富的结对编程伙伴,能精准补全代码、生成测试用例、

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

一、简介 * • llama.cpp 是一个在 C/C++ 中实现大型语言模型(LLM)推理的工具 * • 支持跨平台部署,也支持使用 Docker 快速启动 * • 可以运行多种量化模型,对电脑要求不高,CPU/GPU设备均可流畅运行 * • 开源地址参考:https://github.com/ggml-org/llama.cpp • 核心工作流程参考: 二、安装与下载模型(Docker方式) 1. 搜索可用模型 • 这里以 qwen3-vl 模型为例,提供了多种量化版本,每种版本的大小不一样,根据自己的电脑性能做选择,如选择(模型+量化标签):Qwen/Qwen3-VL-8B-Instruct-GGUF:Q8_0 • 可以在huggingface官网中搜索可用的量化模型:https://huggingface.co/models?search=