OpenClaw配置飞书教程,一句话就能让 AI 帮你干活的神器(0306最新)

OpenClaw配置飞书教程,一句话就能让 AI 帮你干活的神器(0306最新)

OpenClaw 是什么?一句话就能让 AI 帮你干活的神器

OpenClaw 是一款开源的个人 AI Agent 系统,装在你的电脑或服务器上,就像有了个 24 小时待命的 AI 助手。

为什么要在飞书里用 OpenClaw?

你说一句话,它就能伸出"钳子",直接在飞书里帮你把活儿干了!

飞书刚推出了 OpenClaw 官方插件,能让你的 OpenClaw 以你的身份调用飞书的各种能力:读群聊、看文档、写文档、改文档、发消息、约日程、建多维表格……基本上你能在飞书做的事,它都能帮你做。

为什么选飞书而不是 Telegram?

  • 飞书是国内平台,中文界面、中文文档、中文客服,上手快
  • 国内 OpenClaw 用户大多数都接入了飞书,生态更成熟
  • 飞书的开放能力比其他国内平台强,能获取更多工作上下文,玩法更多
点击加入 OpenClaw 飞书插件体验互助群

⚠️ 重要:使用前必读的安全提示

🔴 核心风险

这个插件会通过飞书接口连接你的工作数据——消息、文档、日历、联系人。AI 能读到的东西,理论上就有泄露的可能。虽然做了安全防护,但 AI 系统还不够成熟稳定,不能保证万无一失。

🔴 强烈建议:现阶段千万别用公司/企业飞书账号!请务必用个人账号体验和测试。

📌 其他风险

  • AI 会"幻觉":有时会误解你的意图,或者生成看似合理但不准确的内容
  • 有些操作不可逆:比如 AI 代发的飞书消息是以你的名义发出的,发出去就收不回来了
  • 应对方法:涉及发送、修改、写入等重要操作,一定要"先预览,再确认",别让 AI 完全自动驾驶

💡 使用建议

先拿个人账号安全地"玩"起来,等后续安全隔离能力更成熟了,再考虑接入真实工作环境。

用的过程中遇到任何问题,随时反馈给我们,我们正在快速迭代中!

🎁 飞书官方专属福利

飞书开放 API 无限调用额度

为了让大家稳定地运行 🦞,飞书开放了 API 无限调用额度

有效期至:2026 年 3 月 31 日

火山引擎 Coding Plan X 飞书专属特惠价

主流 AI 模型畅用,告别 tokens 焦虑,开通就能免费用云端部署的 ArkClaw

  • Lite 套餐:首月 ¥9.9(原价 ¥40)
  • Pro 套餐:首月 ¥49.9
  • 飞书订阅专属活动>> szacq.cn/YbpHK/
  • Arkclaw 体验中心>> szacq.cn/YwSno/

📌 选择安装方式

本地部署

  • 优点:数据完全在本地,隐私性高;不用持续付云端费用
  • 缺点:依赖你电脑的性能和网络;需要自己维护;操作门槛高一些
  • 适合谁:个人开发者、对数据安全要求高的团队
  • 操作教学:点击立即前往

云端部署

  • 优点:操作简单,推荐新手。24 小时在线,不用电脑一直开着;性能稳定
  • 缺点:要付服务器费用;数据存在云端
  • 适合谁:团队协作、需要 7x24 小时服务的场景
  • 操作教学:点击立即前往,享火山专属福利!

⚙️ 本地部署 OpenClaw 指南

前置知识|什么是终端?

终端是什么

终端是 Mac 自带的一个程序,让你可以用文字命令直接控制电脑,而不是用鼠标点图标。在 Mac 上安装 OpenClaw 必须用到它。

怎么找到终端

方法一:程序坞 > 启动台 > 其他 > 终端
方法二:打开程序坞搜索"终端"

怎么用终端

打开"终端" > 输入指令 > 点击"回车"确认

环境准备

安装 Node.js

1. 打开 Node.js 官网 https://nodejs.org/zh-cn
2. 下载安装包(选择 22.x LTS 版本)
3. 运行安装包

按照下面的截图一步步操作就行:

安装 Homebrew 和 Git

1. 安装 Homebrew

下载并运行安装包

2. 安装 Git

Homebrew 装完后,打开 Git 官网:https://git-scm.com/install/mac,选择你的电脑系统,把 Homebrew 下的指令复制到"终端"运行。

⚠️ 注意:别复制"$"这个符号,只复制英文部分
brew install git

Step 1|安装 OpenClaw

1. 打开 OpenClaw 官网:https://openclaw.ai/

2. 往下滑找到"Quick Start",获取安装指令

3. 打开"终端"输入这段指令

npm i -g openclaw 

❌ 如果出现了 “error” 报错,就输入下面这段(强制执行安装):

sudo npm i -g openclaw 
输入密码时屏幕不会有任何显示,这是正常的安全保护,直接盲打完密码后按回车就行
❌ 安装出错✅ 安装成功

4. 怎么验证安装成功?

输入下面这段指令,如果看到版本号,就说明装好了:

openclaw --version 

Step 2|把 OpenClaw 接入飞书

1. 创建飞书机器人并开启权限

后续我们会提供一键创建机器人的能力,敬请期待

2. 创建企业自建应用

  1. 登录开发者后台:开发者后台 - 飞书开放平台,创建企业自建应用
  2. 在弹出的窗口中,填写以下信息:
配置项填写内容说明
应用名称(随便写)自定义名称
应用描述(随便写)简单描述用途
应用图标可以暂时不传

填完后,点"创建"按钮,会自动跳转到应用详情页

3. 添加应用能力

在能力列表中,找到"机器人"能力卡片,点"添加"按钮

4. 批量导入应用权限(最关键的一步)

这步最容易出错,必须严格按要求操作!
  1. 在应用详情页左侧目录树,找到 权限管理 > 批量导入/导出权限
  1. 在弹出的窗口中,默认是"导入"页签,清空输入框内的所有内容,把下方代码块内容完整复制进来,点"确定新增权限"
{"scopes":{"tenant":["contact:contact.base:readonly","docx:document:readonly","im:chat:read","im:chat:update","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message.pins:read","im:message.pins:write_only","im:message.reactions:read","im:message.reactions:write_only","im:message:readonly","im:message:recall","im:message:send_as_bot","im:message:send_multi_users","im:message:send_sys_msg","im:message:update","im:resource","application:application:self_manage","cardkit:card:write","cardkit:card:read"],"user":["contact:user.employee_id:readonly","offline_access","base:app:copy","base:field:create","base:field:delete","base:field:read","base:field:update","base:record:create","base:record:delete","base:record:retrieve","base:record:update","base:table:create","base:table:delete","base:table:read","base:table:update","base:view:read","base:view:write_only","base:app:create","base:app:update","base:app:read","board:whiteboard:node:create","board:whiteboard:node:read","calendar:calendar:read","calendar:calendar.event:create","calendar:calendar.event:delete","calendar:calendar.event:read","calendar:calendar.event:reply","calendar:calendar.event:update","calendar:calendar.free_busy:read","contact:contact.base:readonly","contact:user.base:readonly","contact:user:search","docs:document.comment:create","docs:document.comment:read","docs:document.comment:update","docs:document.media:download","docs:document:copy","docx:document:create","docx:document:readonly","docx:document:write_only","drive:drive.metadata:readonly","drive:file:download","drive:file:upload","im:chat.members:read","im:chat:read","im:message","im:message.group_msg:get_as_user","im:message.p2p_msg:get_as_user","im:message:readonly","search:docs:read","search:message","space:document:delete","space:document:move","space:document:retrieve","task:comment:read","task:comment:write","task:task:read","task:task:write","task:task:writeonly","task:tasklist:read","task:tasklist:write","wiki:node:copy","wiki:node:create","wiki:node:move","wiki:node:read","wiki:node:retrieve","wiki:space:read","wiki:space:retrieve","wiki:space:write_only"]}}

等几秒钟,页面会显示权限已添加

5. 获取应用凭证(⚠️ 这两个信息要严格保密!)

  1. 在应用详情页左侧目录,找到"凭证与基础信息",点进去
  2. 页面中会看到以下两项重要信息,务必完整复制并妥善保存:
凭证名称格式说明用途
App ID格式如 cli_xxxxxxxxxxxx飞书应用唯一标识
App Secret一串长字符串应用安全密钥,不可泄露

6. 安装飞书官方插件

6.1 依次在终端中执行以下命令
npm config set registry https://registry.npmjs.org 
curl -o /tmp/feishu-openclaw-plugin-onboard-cli.tgz https://sf3-cn.feishucdn.com/obj/open-platform-opendoc/90600c5361ebe210fdae13020544bdc7_GmKPCTpnyF.tgz 
npm install /tmp/feishu-openclaw-plugin-onboard-cli.tgz -g 

❌ 如果出现 “error” 报错,就输入下面这段(强制执行):

sudo npm install /tmp/feishu-openclaw-plugin-onboard-cli.tgz -g 
rm /tmp/feishu-openclaw-plugin-onboard-cli.tgz 
feishu-plugin-onboard install 

输入完所有指令后才会看到结果,最后需要填写刚才获取的飞书机器人 APP ID 和 APP Secret

6.2 遇到问题怎么办?

运行下面这段指令:

feishu-plugin-onboard doctor 

可以查看问题,自主修复:

运行 fix 尝试自动修复,出现"All checks passed"就可以进入下一步了。如果输入一次不行就输入两次

feishu-plugin-onboard doctor --fix 
6.3 配置完成后,启动 OpenClaw
openclaw gateway run --allow-unconfigured 

⚠️ 注意:这个指令运行后,终端页面不能关! 后续所有指令都需要新建终端页面运行(快捷键:Command + T 创建新终端窗口)

怎么验证安装成功?

  1. 运行上面的代码后,如果出现下面这段,说明插件已经开始运行了:
  1. 运行下面这段指令:
openclaw plugins list 

IDfeishu-openclaw-plugin 的 Status 为 “loaded”IDfeishu 的 Status 为 “disabled”,就说明已成功启用飞书官方插件:

6.4 订阅机器人长链接,接收事件和卡片回调
这一步的作用是让 OpenClaw 能在飞书内收发消息
  1. 进入飞书开放平台,找到刚创建的应用,配置"事件与回调"
  2. 进入 事件配置 > 订阅方式 > 使用长链接接受事件 > 保存
  1. 添加"接收消息"事件
  1. 进行"回调配置"

进入"回调配置",搜索并添加"卡片回传交互",点"确认添加"

7. 发布应用

应用必须发布后,才能在飞书中使用!
  1. 点上方"创建版本"
  1. 在弹出的窗口中:
    • 填写版本号(如:1.0.0
    • 填写版本描述(如:首次发布,集成 OpenClaw)
  2. 点"确定"创建版本
  3. 创建成功后,点版本右侧的"发布"按钮
  4. 等待管理员审批就行

🎉 到这里,你已经离成功只差一步了!


Step 3|在飞书中完成 OpenClaw 初始化配置

1. 配置 OpenClaw 的 AI 大模型

这一步是给你的龙虾 🦞 装上大脑,选一个 AI 大模型接入。

推荐大模型:

  • 火山引擎:szacq.cn/YbpHK/,开通后按教程接入 szacq.cn/2JBQB/
  • MinMax:https://minimaxi.com/news/minimax-m2
  • 其他模型可前往产品官网获取

先获取 API Key,然后运行下面这段指令:

openclaw config 

按照以下内容选择:

Local > Model > 选择你的模型厂商 > Paste API key now > 输入「API key」

2. 运行 OpenClaw Gateway

打开"终端"依次输入以下指令,检查 Gateway 是否正常:

openclaw gateway install 
openclaw gateway start 
openclaw gateway status 
出现绿色 “loaded”,就说明安装成功了

3. 找到并打开我们创建的飞书机器人

“开发者小助手"会把审批通过的应用推送到你的消息界面,点"打开应用”

4. 在飞书中向机器人发送任意消息,系统会生成一个配对码

配对码有效期 5 分钟,超时需重新触发

打开"终端"执行以下命令完成绑定:

"复制到内容" --notify 
如果你收到的信息最后一行是 openclaw pairing approve feishu 8BB9EBV8,就复制这段内容,并在最后加上 --notify

输入:openclaw pairing approve feishu 8BB9EBV8 --notify

完成配对后有个授权的过程。如果没收到授权申请,就在聊天框输入 /feishu auth


🎉 到这步你已经完成了飞书内安装 OpenClaw 的全部配置,现在可以开始用了!

试试跟它说:"你好!"吧~

为了让你的 🦞 虾更好用,推荐立即在"对话框"输入以下指令

指令名称指令代码
确认龙虾是否安装成功/feishu start
批量完成用户授权/feishu auth
切换为流式回复openclaw config set channels.feishu.streaming true
检查配置是否正常/feishu doctor

👍 飞书 X OpenClaw 推荐应用场景

OpenClaw 能把你从重复性、低价值的劳动中解放出来。通过自然语言指令就能完成日常办公任务,实现真正的远程控制自动化执行

核心功能

  • 智能早报生成:自动抓取天气、日历事件、新闻热点和未读邮件摘要,通过飞书消息同步给你
  • 邮件与日程管理:读取收件箱,提取会议/任务信息生成飞书日程,异常邮件实时推送
  • 文件智能整理:按规则扫描本地文件与云文档,自动分类、归档并生成目录索引,还能提供知识问答
  • 跨端远程办公:在手机飞书发送指令,由部署在电脑或服务器的 OpenClaw 执行复杂任务

实际效果

  • 时间节省:日均处理邮件超 50 封,日程创建效率提升 80%
  • 错误率降低:文件整理错误率从 17% 降至 0%
  • 重复劳动减少:每日固定流程耗时减少 73%
  • 响应速度:远程任务执行,突破时空限制,指令即结果

团队协作场景:构建多 Agent AI 助理团队

单一通用 AI 助手在复杂协作中力不从心。OpenClaw 的多 Agent 架构支持搭建专业化分工的 AI 团队,搭配云文档、多维表格等功能,让 AI 们在飞书群中实现高效协作,就像一个真正的项目组。

角色名称核心职责适用场景协作方式
AI 大总管总协调、任务分发、进度跟踪项目启动、跨部门需求对接接收需求→分析类型→分派给对应 Agent
AI 资讯助理行业资讯收集、定时推送、趋势分析市场调研、竞品分析、日报生成定时抓取指定源→过滤清洗→生成摘要
AI 内容助理文案创作、视频脚本、文档生成内容营销、方案撰写、会议纪要基于 brief 创作→多版本输出→格式优化
AI 代码助理技术支持、代码审查、方案设计技术评审、BUG 排查、架构咨询分析代码/日志→提供解决方案→生成报告
AI 任务助理任务跟踪、提醒催办、状态同步项目管理、OKR 跟进、待办提醒监控多维表格→定时提醒→生成进度报告

⚠️ 常见问题清单

1. 常见终端指令

指令名称指令代码使用说明
启动 AI 网关服务openclaw gateway run必用指令,用于运行 openclaw,运行时需保留该终端窗口
彻底停止后台运行的网关进程openclaw gateway stop
重启网关openclaw gateway restart修改了配置文件(如开启流式输出)后,必须运行此指令才能生效
启动交互式安装向导openclaw configure用于设置飞书应用的 App ID、Secret 以及选择大模型供应商
启动可视化界面openclaw dashboard这个网页后台比终端直观得多,包含聊天、控制、代理与技能、配置等板块
自动诊断openclaw doctor自动诊断脚本,检查系统环境、依赖项和配置是否存在异常
获取运行状态openclaw health获取网关和已连接渠道(如飞书)的实时运行状态
打开插件列表openclaw plugins list

2. OpenClaw 消耗贵吗?

不少开发者提到 OpenClaw 调用烧 tokens 的问题。目前火山方舟 Coding Plan 已经支持了 OpenClaw,Lite 套餐首月订阅 9.9 元(原价 40 元),限频不限量,基本可以实现 tokens 自由。

消耗情况取决于用法,丰俭由人。

3. 插件安装完运行后,报 cannot find module xxx

原因是系统没有安装插件的依赖(可能是安装被中断或权限问题)

解决方法:进入插件安装目录,运行 npm install

4. 如果想要切换到流式输出怎么配置

切换到流式输出:

openclaw config set channels.feishu.streaming true 

不用流式输出:

openclaw config set channels.feishu.streaming false 

流式输出卡片上支持显示更多内容:

openclaw config set channels.feishu.footer.elapsed true // 开启耗时 openclaw config set channels.feishu.footer.status true // 开启状态展示 

5. 如何修改飞书机器人在群内的回复方式

# 查看当前配置 openclaw config get channels.feishu # 设置需要 @ 才回复 openclaw config set channels.feishu.requireMention true--json# 设置不需要 @ 也回复 openclaw config set channels.feishu.requireMention open--json# 给特定群设置规则 openclaw config set channels.feishu.groups.群ID.requireMention true--json# 重启 Gateway 生效sh /workspace/projects/scripts/restart.sh 

模式 1:只有 @机器人 才回复(最常用)

配置方法

# 设置需要 @ 才回复 openclaw config set channels.feishu.requireMention true--json# 重启生效sh /workspace/projects/scripts/restart.sh 

完整配置示例

{"channels":{"feishu":{"enabled":true,"appId":"cli_你的AppID","appSecret":"你的AppSecret","requireMention":true,"groupPolicy":"open"}}}

模式 2:不用 @,所有消息都回复

配置方法

# 设置不需要 @ 也回复 openclaw config set channels.feishu.requireMention false--json# 重启生效sh /workspace/projects/scripts/restart.sh 

完整配置示例

{"channels":{"feishu":{"enabled":true,"appId":"cli_你的AppID","appSecret":"你的AppSecret","requireMention":"open","groupPolicy":"open"}}}
⚠️ 注意:这个模式在大群里容易刷屏,谨慎使用!

模式 3:只有指定群 @机器人 才回复(高级)

效果

  • 大部分群:不用 @ 也能回复(或者完全不回复)
  • 特定群:必须 @ 才回复
  • 适合:不同群不同规则,比如工作群严格一点,闲聊群随意一点

配置方法

第一步:获取群 ID

让 Bot 加入群后,发送任意消息,然后在日志里找群 ID,或者让 Bot 回复群 ID。或飞书群设置页面中有 ID

第二步:配置特定群规则

# 先设置默认所有群都不需要 @ openclaw config set channels.feishu.requireMention open--json# 然后给特定群设置需要 @(这里群ID只是示例,你要替换成真实的) openclaw config set channels.feishu.groups.oc_xxxxxxxx.requireMention true--json# 重启生效sh /workspace/projects/scripts/restart.sh 

完整配置示例

{"channels":{"feishu":{"enabled":true,"appId":"cli_你的AppID","appSecret":"你的AppSecret","requireMention":"open","groupPolicy":"open","groups":{"oc_532044075a61d112f04fa63109c75e9b":{"requireMention":true},"oc_另一个群ID":{"requireMention":true}}}}}

🦞 更多优质龙虾实践文档

Read more

【毕业论文没思路?paperxm智能写作一键解决!】

【毕业论文没思路?paperxm智能写作一键解决!】

毕业论文写作困境的常见原因 缺乏明确的研究方向或选题,导致难以展开论文框架。文献综述不足,无法有效支撑论点,造成写作停滞。时间管理不当,临近截止日期时压力倍增。对学术写作规范不熟悉,格式和逻辑容易出错。 paperxm的链接我就给大家放着了哈:www.paperxm.com Paperxm智能写作工具的核心功能 基于自然语言处理技术,自动生成论文大纲和初稿,提供选题建议。内置文献检索模块,快速匹配相关学术资源,辅助文献综述。支持多语言写作,满足不同学科领域的表达需求。实时语法检查和格式修正,确保论文符合学术规范。 如何使用Paperxm 它从开题报告、文献综述、论文写作还有仿写、到最后的答辩PPT都能帮我直接解决! 优势一:节省时间 使用paperxm写论文,可以让我告别繁琐的资料搜集和整理工作。paperxm能迅速从海量资料中筛选出有用的信息,为我的论文提供有力支持。这样一来,你就有更多的时间去思考、创新,提高论文质量。 优势二:提高写作质量 paperxm具有强大的语言处理能力,可以帮助我优化句子结构、纠正语法错误,甚至提供写作建议。这意味着,我的论文在pape

【2025实测】10大AI模型API中转/聚合平台横评:一键集成GPT/Claude/文心一言,拒绝重复造轮子

【2025实测】10大AI模型API中转/聚合平台横评:一键集成GPT/Claude/文心一言,拒绝重复造轮子

当你需要同时调用GPT-4、Claude 3和文心一言时,是否还在为每个平台分别调试接口?2025年的AI开发,正在经历从“单个模型调用”到“多模型智能调度”的范式转变。 随着AI模型生态的日益繁荣,开发者面临的挑战不再是“没有选择”,而是“选择太多”。不同的API接口、各异的认证方式、分散的计费体系和波动的服务可用性,让原本聚焦业务创新的团队疲于应付基础设施的复杂性。 2025年的AI模型API中转平台正在成为解决这一痛点的关键基础设施。这些平台通过统一的接口协议、智能的路由策略和聚合的管理能力,让开发者可以像使用本地服务一样调用全球领先的AI能力。 01 2025年度十大API中转平台全景对比 本次横评基于2025年第一季度实际测试数据,从模型覆盖广度、接口统一程度、稳定可用性、成本效益和开发者体验五个核心维度,对主流API中转平台进行了系统评估。 平台名称核心功能与定位支持模型覆盖2025实测关键表现适用场景综合推荐指数PoloAPI统一接入层与智能调度中心GPT全系列、Claude、Gemini、文心一言、通义千问等20+接口响应延迟稳定在150ms内;智能路由

每日同步热门权重:Llama/Qwen/GLM等优先保障

每日同步热门权重:Llama/Qwen/GLM等优先保障 在大模型技术日新月异的今天,一个开发者最怕遇到什么?不是算法看不懂,也不是数据难清洗——而是当你准备动手微调最新版Qwen或Llama时,发现权重还没发布、镜像源拉不动、显存爆了跑不起来……更别提推理延迟高得没法上线服务。 这正是当前AI研发中普遍存在的“落地断层”:前沿模型迭代飞快,但工程支持跟不上节奏。训练要拼配置,部署靠手动搭轮子,评测没有统一标准,整个流程像是在“用乐高积木造火箭”。 有没有一种可能,让这一切变得像启动Docker容器一样简单? 答案是肯定的。基于魔搭社区(ModelScope)推出的 ms-swift 框架,正在重新定义大模型开发的效率边界。它不只是一个工具集,而是一整套面向生产级应用的全链路解决方案——从你打开终端那一刻起,直到模型上线提供API服务,全程几乎无需写代码。 更重要的是,这套系统每天都会自动同步 Llama、Qwen、GLM 等主流大模型的最新公开权重,确保你在第一时间就能用上刚发布的模型版本。这种“时效性+可用性”的双重保障,在实际项目推进中往往是决定成败的关键。 想象一下

超全实测!llama.cpp性能基准库:从参数调优到多场景测试全攻略

超全实测!llama.cpp性能基准库:从参数调优到多场景测试全攻略 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否还在为本地部署大语言模型(LLM)时的性能瓶颈发愁?同样的硬件配置,为何有人能跑100 tokens/秒,而你却卡在20 tokens/秒?本文将带你深度掌握llama.cpp官方性能测试工具——llama-bench,通过标准化测试流程和参数调优技巧,让你的模型性能提升300%! 读完本文你将获得: * 3分钟上手的性能测试命令模板 * 4组关键参数(线程数/GPU层/批处理大小)调优指南 * 5种输出格式(CSV/JSON/