OpenClaw 飞书机器人配置教程|一键对接飞书,实现聊天下达 AI 指令

OpenClaw 飞书机器人配置教程|一键对接飞书,实现聊天下达 AI 指令

适配版本:OpenClaw v2.3.12/v2.4.1(小龙虾)前置要求:已部署 OpenClaw Windows 端(Win10/Win11 均可),未部署可先下载一键部署包完成安装核心效果:配置完成后,可在飞书聊天窗口直接向机器人发送自然语言指令,OpenClaw 自动拆解任务、操控电脑完成操作,实现飞书远程下达 AI 任务

📌 OpenClaw Windows 一键部署包下载地址🔗 OpenClaw Windows 一键部署包 v2.3.12✅ 免配置、免命令行、解压即用,内置所有运行依赖,部署完成后再进行飞书配置即可

(此教程配合这个安装包使用)

一、配置前必看

  1. 需拥有飞书账号,个人 / 企业账号均可,企业账号需确保有应用开发权限
  2. OpenClaw 需保持正常运行(Gateway 在线),配置过程中无需关闭
  3. 飞书开放平台操作全程按步骤执行,权限导入、事件订阅缺一不可,否则机器人无法响应
  4. 配置完成后需重启 OpenClaw,确保凭证生效

二、第一步:进入飞书开放平台并登录开发者后台

  1. 打开飞书开放平台官方地址:https://open.feishu.cn

使用飞书账号扫码 / 密码登录,进入开发者后台(首次登录无需额外认证,个人账号可直接使用)

1.png

三、第二步:创建企业自建应用

  1. 在开发者后台首页,点击创建应用按钮
  2. 应用类型选择企业自建应用(仅本企业 / 个人可使用,无需上架审核,快速生效)

进入应用创建页面,准备填写基础信息

2.png

四、第三步:填写应用基础信息

按要求填写以下信息,填写完成后点击创建

  • 应用名称:自定义(如:OpenClaw 机器人、小龙虾 AI、虾壳云),建议便于识别
  • 应用描述:简要说明(如:OpenClaw AI 智能体,飞书聊天下达指令),字数≤120

应用图标:自定义上传(JPEG/PNG/SVG/BMP 格式,2MB 以内,分辨率≥240*240px),可使用 OpenClaw 龙虾 Logo,便于飞书内识别✅ 注:信息可后续修改,创建后进入应用配置主界面

3.png

五、第四步:为应用添加「机器人」能力

  1. 进入应用配置页,左侧菜单栏找到添加应用能力选项并点击
  2. 在能力列表中选择机器人,点击右侧添加按钮

添加完成后,左侧菜单栏会出现「机器人」相关配置项,说明能力添加成功

4.png

六、第五步:批量导入机器人核心权限(关键步骤)

OpenClaw 需调用飞书消息、文档、表格等接口,需提前开通对应权限,批量导入可一次性完成,避免手动添加遗漏

  1. 左侧菜单栏进入权限管理,找到批量导入 / 导出权限按钮并点击
  2. 选择应用身份权限,将以下 JSON 代码完整粘贴至输入框,点击格式化 JSON(避免格式错误)
  3. 点击下一步,确认新增权限,再点击申请开通,等待权限开通成功(个人账号免审核,立即生效;企业账号需管理员审核)

完整权限 JSON 代码(直接复制)

 { "scopes": { "tenant": [ "aily:message:read", "aily:message:write", "base:app:copy", "base:app:create", "base:app:read", "base:app:update", "base:collaborator:create", "base:collaborator:delete", "base:collaborator:read", "base:dashboard:copy", "base:dashboard:read", "base:field:create", "base:field:delete", "base:field:read", "base:field:update", "base:form:read", "base:form:update", "base:record:create", "base:record:delete", "base:record:read", "base:record:retrieve", "base:record:update", "base:role:create", "base:role:delete", "base:role:read", "base:role:update", "base:table:create", "base:table:delete", "base:table:read", "base:table:update", "base:view:read", "base:view:write_only", "bitable:app", "bitable:app:readonly", "board:whiteboard:node:create", "board:whiteboard:node:delete", "board:whiteboard:node:read", "board:whiteboard:node:update", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.base:readonly", "contact:user.employee_id:readonly", "contact:user.employee_number:read", "contact:user.id:readonly", "docs:doc", "docs:doc:readonly", "docs:document.comment:create", "docs:document.comment:read", "docs:document.comment:update", "docs:document.comment:write_only", "docs:document.content:read", "docs:document.media:download", "docs:document.media:upload", "docs:document.subscription", "docs:document.subscription:read", "docs:document:copy", "docs:document:export", "docs:document:import", "docs:event.document_deleted:read", "docs:event.document_edited:read", "docs:event.document_opened:read", "docs:event:subscribe", "docs:permission.member", "docs:permission.member:auth", "docs:permission.member:create", "docs:permission.member:delete", "docs:permission.member:readonly", "docs:permission.member:retrieve", "docs:permission.member:transfer", "docs:permission.member:update", "docs:permission.setting", "docs:permission.setting:read", "docs:permission.setting:readonly", "docs:permission.setting:write_only", "docx:document", "docx:document.block:convert", "docx:document:create", "docx:document:readonly", "drive:drive", "drive:drive.metadata:readonly", "drive:drive.search:readonly", "drive:drive:readonly", "drive:drive:version", "drive:drive:version:readonly", "drive:export:readonly", "drive:file", "drive:file.like:readonly", "drive:file.meta.sec_label.read_only", "drive:file:download", "drive:file:readonly", "drive:file:upload", "drive:file:view_record:readonly", "event:ip_list", "im:app_feed_card:write", "im:chat", "im:chat.members:read", "im:chat:read", "im:message", "im:message.group_msg", "im:message:send_as_bot", "im:message:readonly", "im:message:update", "sheets:spreadsheet", "sheets:spreadsheet:create", "sheets:spreadsheet:read", "space:folder:create", "wiki:node:create", "wiki:node:read", "wiki:node:update", "wiki:space:read" ], "user": [] } }

七、第六步:配置事件订阅,实现飞书消息接收

  1. 左侧菜单栏进入事件与回调,选择事件配置
  2. 订阅方式修改为:使用长连接接收事件(推荐,无需配置公网域名,个人账号首选),点击保存
  3. 点击添加事件,在搜索框输入接收消息,选择接收消息 v2.0(im.message.receive_v1)

勾选事件后点击添加,完成消息订阅配置(飞书发送的消息将通过长连接推送给 OpenClaw)

10.png

 

11.png

 

12.png

 

13.png

八、第七步:发布应用,使所有配置生效

  1. 左侧菜单栏进入版本管理与发布,点击创建版本
  2. 填写版本信息:
    • 应用版本号:自定义(如:1.0.0,按常规版本号填写即可)
    • 更新说明:简要填写(如:OpenClaw 飞书机器人初始配置)
    • 移动端 / 桌面端默认能力:均选择机器人

滑动至页面底部,点击保存,再点击确认发布✅ 注:个人未认证账号发布后免审核,立即生效;企业认证账号需进入飞书管理后台完成应用审核后生效

14.png

 

15.png

 

16.png

 

17.png

九、第八步:获取应用凭证,配置至 OpenClaw

  1. 左侧菜单栏进入凭证与基础信息,找到应用凭证板块
  2. 复制App IDApp Secret(需完整复制,不含空格,建议手动复制避免粘贴错误)
  3. 打开已运行的 OpenClaw 主界面,点击右上角设置,选择左侧聊天渠道
  4. 在渠道列表中找到Feishu(飞书),点击进入配置页
  5. 将复制的App IDApp Secret分别粘贴至对应输入框

点击页面底部保存渠道配置,OpenClaw 将自动重启,等待 Gateway 重新在线即配置完成

18.png

 

20.png

十、第九步:飞书端使用 OpenClaw 机器人(最终步骤)

  1. 打开飞书 PC / 手机端,在顶部搜索栏输入你创建的应用名称(如:OpenClaw 机器人)
  2. 点击进入机器人聊天窗口,发送任意测试指令(如:“你好”、“帮我整理桌面文件”)

若机器人正常回复 / 执行指令,说明配置成功;若无响应,按下方问题排查检查

19.png

十一、常见问题排查(机器人无响应 / 指令执行失败)

  1. 飞书应用未发布:返回飞书开放平台,确认版本已发布且审核通过(个人账号检查是否点击 “确认发布”)
  2. 权限未开通:进入权限管理,检查是否所有权限均显示 “已开通”,未开通则重新批量导入并申请
  3. App ID/Secret 复制错误:检查 OpenClaw 飞书配置页的凭证是否与飞书开放平台一致,有无多字 / 少字 / 空格
  4. OpenClaw 未重启:配置完成后需确保 OpenClaw 自动重启,若未重启,手动点击右上角重启Gateway
  5. 长连接未生效:返回飞书事件与回调,确认订阅方式为 “长连接”,重新保存后再测试
  6. OpenClaw 未正常部署:检查 Gateway 是否显示 “在线”,若离线,重新运行 OpenClaw 一键启动程序

十二、附:OpenClaw 飞书机器人常用指令示例

配置成功后,可在飞书聊天窗口直接发送以下指令,AI 自动操控电脑完成:

  • 办公类:「帮我打开 Excel,制作一份本周工作汇报表格,保存到 D 盘」
  • 文件类:「整理 D 盘下载文件夹,按文件类型分类创建文件夹」
  • 浏览器类:「打开浏览器,搜索 2026 年 AI 智能体发展趋势,整理成文档」
  • 消息类:「帮我给飞书备注 “同事 A” 发送消息,内容是 “工作汇报已发至你邮箱”」

📌 再次附上 OpenClaw Windows 一键部署包下载地址🔗 OpenClaw Windows 一键部署包 v2.3.12✅ 未部署的用户先下载安装,部署完成后按本教程配置,全程 10 分钟即可实现飞书对接 OpenClaw!

转载请注明出处,后续将更新 OpenClaw 微信 / 钉钉等渠道对接教程,持续关注获取更多干货!

Read more

AI安全工具:AI供应链安全检测工具的使用

AI安全工具:AI供应链安全检测工具的使用

AI安全工具:AI供应链安全检测工具的使用 📝 本章学习目标:本章介绍实用工具,帮助读者掌握AI安全合规治理的工具使用。通过本章学习,你将全面掌握"AI安全工具:AI供应链安全检测工具的使用"这一核心主题。 一、引言:为什么这个话题如此重要 在AI技术快速发展的今天,AI安全工具:AI供应链安全检测工具的使用已经成为每个AI从业者和企业管理者必须了解的核心知识。随着AI应用的深入,安全风险、合规要求、治理挑战日益凸显,掌握这些知识已成为AI时代的基本素养。 1.1 背景与意义 💡 核心认知:AI安全、合规与治理是AI健康发展的三大基石。安全是底线,合规是保障,治理是方向。三者相辅相成,缺一不可。 近年来,AI安全事件频发,合规要求日益严格,治理挑战不断升级。从数据泄露到算法歧视,从隐私侵犯到伦理争议,AI发展面临前所未有的挑战。据统计,超过60%的企业在AI应用中遇到过安全或合规问题,造成的经济损失高达数十亿美元。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,我将从以下几个维度展开:

Whisper-medium.en:769M参数实现英语语音高效转写

Whisper-medium.en:769M参数实现英语语音高效转写 【免费下载链接】whisper-medium.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-medium.en OpenAI推出的Whisper-medium.en模型凭借769M参数实现了英语语音识别的高精度与高效率平衡,在主流语音识别基准测试中展现出优异性能。 行业现状:语音识别进入规模化应用新阶段 随着远程办公、智能交互和内容创作需求的爆发,语音转文字技术正从实验室走向规模化应用。据市场研究机构数据,全球自动语音识别(ASR)市场规模预计2025年将突破200亿美元,年复合增长率保持在15%以上。当前行业面临的核心挑战在于如何在保证识别 accuracy 的同时,兼顾模型大小、计算效率和部署成本,特别是在边缘设备和实时场景中的应用需求日益增长。 Whisper系列模型的出现改变了传统ASR模型需要大量领域数据微调的局面。OpenAI通过68万小时的大规模弱监督训练数据,使模型具备了强大的泛化能力,其中英语专用模型在保持高性能的同时

Ollama模型家族大比拼:Llama、Mistral、Gemma谁更适合你?

Ollama模型家族深度横评:Llama、Mistral、Gemma,谁才是你的“本命模型”? 最近几个月,我身边不少技术朋友都在折腾本地大模型。有人用MacBook Air跑起了70亿参数的模型,兴奋地跟我分享他的“私人AI助手”;也有人在公司服务器上部署了数百亿参数的庞然大物,结果发现响应速度慢得让人抓狂。这让我意识到一个问题:选择模型,远比安装模型更重要。 Ollama的出现,确实让本地运行大语言模型变得像安装普通软件一样简单。但当你打开模型库,看到琳琅满目的选项——Llama、Mistral、Gemma、Qwen、Phi……每个系列还有不同参数版本,那种感觉就像走进了一家高级自助餐厅,每道菜看起来都很诱人,但你只有一个胃。 我花了近两个月时间,在多种硬件配置上系统测试了Ollama支持的主流模型家族。从搭载M1芯片的MacBook Air,到配备RTX 4090的台式工作站,再到只有集成显卡的轻薄本,我记录了每个模型在不同场景下的真实表现。今天这篇文章,我想和你分享的不仅仅是冷冰冰的基准测试数据,更是那些在实际使用中才会遇到的细节和坑。 1. 模型家族全景图:理解每个

GPU资源不够也能跑Llama 3 70B?Dify量化部署实战分享,省下80%成本

第一章:GPU资源不够也能跑Llama 3 70B?Dify量化部署实战分享,省下80%成本 在显存有限的环境下部署大语言模型(LLM)一直是企业落地AI应用的痛点。Llama 3 70B 参数量巨大,常规部署需多张高端GPU,但通过模型量化与Dify平台的高效集成,仅用单张24GB显存的消费级显卡即可运行。 量化原理与优势 量化技术将模型权重从FP16或FP32压缩至INT4甚至更低精度,大幅降低显存占用和推理延迟。以Llama 3 70B为例: * 原始FP16版本需约140GB显存 * INT4量化后模型体积压缩至约35GB * 配合内存卸载(offload)技术,可运行于单卡RTX 4090 Dify中配置量化模型 Dify支持自定义模型接入,结合llama.cpp或vLLM等后端实现轻量化部署。以下为基于GGUF格式的INT4量化模型启动命令: # 使用 llama.cpp 启动量化后的 Llama 3 70B ./server -m ./models/llama-3-70b.Q4_K_M.gguf