OpenClaw中飞书机器人配置指南:如何让群消息免 @ 也能自动回复

用 OpenClaw 做飞书机器人时,默认配置下,群里的消息必须 @ 机器人 才能触发回复。这在很多场景下很不方便——如果希望机器人在群里"隐身"工作,不用 @ 就能自动监听和回复,需要额外配置。

本文记录我解决这个问题的完整过程,供同样踩坑的同学参考。


问题描述

现象:

  • 飞书群里 @ 机器人 → 正常回复 ✅
  • 飞书群里不 @ 机器人 → 没有任何反应 ❌

环境:

  • OpenClaw 框架
  • 飞书自建应用(机器人)
  • WebSocket 长连接模式

解决过程

第一步:修改 OpenClaw 配置

openclaw.json 中找到飞书渠道配置:

"channels":{"feishu":{"requireMention":false,...}}

requireMention 设为 false,让 OpenClaw 不再强制要求 @ 机器人。

但这还不够 ❌

第二步:申请飞书平台权限

修改 OpenClaw 配置后测试,发现消息依然收不到。

查日志发现:消息根本没有到达 OpenClaw——问题出在飞书平台层面

飞书默认只推送 @ 机器人 的消息到应用。如果要接收群里所有消息(不限于 @),需要在飞书开放平台申请一个敏感权限:

权限名称:im:message.group_msg(获取群组中所有消息)

第三步:在飞书开放平台申请权限

  1. 打开 飞书开放平台,进入你的应用
  2. 事件与回调事件配置接收消息 → 获取群组中所有信息(敏感权限) im:message.group_msg → 申请开通

第四步:验证效果

权限生效后,在群里发消息不用 @ 机器人,OpenClaw 就能正常收到并自动回复了 ✅


完整配置参考

OpenClaw 飞书渠道配置(完整示例)

"channels":{"feishu":{"enabled":true,"appId":"cli_xxxx","appSecret":"xxxx","domain":"feishu","connectionMode":"websocket","requireMention":false,"dmPolicy":"allowlist","allowFrom":["ou_你的用户ID"],"groupAllowFrom":["ou_你的用户ID"],"groupPolicy":"allowlist","groups":{"*":{"enabled":true}}}}

需要申请的飞书权限清单

权限标识名称类型说明
im:message发送消息基础权限机器人发消息
im:message.group_at_msg:readonly接收群@消息事件基础权限接收群内@机器人消息
im:message.group_msg获取群组中所有消息敏感权限接收群内所有消息(不限于@)
im:message.p2p_msg:readonly接收单聊消息基础权限接收私信

注意事项

  1. im:message.group_msg 是敏感权限
    • 需要企业管理员审批
    • 审批通过后才能使用
    • 建议同时申请 im:message.group_at_msg:readonly(基础权限)
  2. 权限申请后需要重新发布应用
    • 权限审批通过后,必须重新发布版本才能生效
  3. requireMention: false 的作用
    • 设为 false 后,OpenClaw 不会强制要求消息必须 @ 机器人
    • 但如果飞书平台没有相应权限,消息根本不会推送到 OpenClaw
  4. WebSocket vs Webhook
    • 推荐使用 WebSocket 模式,更简单
    • 如果用 Webhook 模式,还需要额外配置 verificationTokenencryptKey

相关文档


总结

飞书群消息免 @ 触发机器人的关键就两步:

  1. OpenClaw 侧requireMention: false
  2. 飞书平台侧:申请 im:message.group_msg 敏感权限并重新发布应用

两个缺一不可。按照这个流程配置,应该就能实现群里自由对话了。


首发于我的博客:https://blog.ZEEKLOG.net/QIU176161650
欢迎交流讨论!

Read more

Flutter 组件 pathfinding 的鸿蒙化适配实战 - 驾驭极致拓扑寻踪大坝、实现 OpenHarmony 分布式端高性能 AI 寻路、迷宫拓扑与工业级路径导航核方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 pathfinding 的鸿蒙化适配实战 - 驾驭极致拓扑寻踪大坝、实现 OpenHarmony 分布式端高性能 AI 寻路、迷宫拓扑与工业级路径导航核方案 前言 在鸿蒙(OpenHarmony)生态的分布式工业巡检、高性能游戏开发或者是对空间计算有极其严苛要求的 0308 批次智能仓储应用中。“复杂环境下的路径最优解计算与实时障碍避让维度”是衡量整个系统智慧化程度的最终质量门禁。面对包含数万个节点的网格地图、海量动态变化的货架坐标、甚至是由于跨设备同步产生的 0308 批次拓扑逻辑海洋。如果仅仅依靠简单的“直线欧式距离”或者是干瘪的广度优先搜索(BFS)。不仅会导致在处理大型复杂地图时让系统如同在逻辑废墟中盲人摸象。更会因为计算耗时指数级爆炸,让移动端在进行路径导航时瞬间陷入死机盲区。 我们需要一种“逻辑先行、代价建模”的空间演算艺术。 pathfinding 是一套专注于无缝整合全球公认顶级算法 A*、Dijkstra 以及二叉堆

用 Python 搭建本地 AI 问答系统:避开 90% 新手都会踩的环境坑

用 Python 搭建本地 AI 问答系统:避开 90% 新手都会踩的环境坑

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” * 前言 * 一、整体架构概览 * 二、新手踩坑分布图 * 三、环境搭建:最容易翻车的第一步 * 3.1 用虚拟环境隔离,别污染全局 * 3.2 PyTorch 安装:版本对齐是关键 * 3.3 依赖管理:用 requirements.txt 锁定版本 * 四、模型下载:别让网络毁了你的心情 * 4.1 使用 Ollama 管理本地模型(强烈推荐) * 4.2 用 Python 调用 Ollama * 五、搭建 RAG 问答系统 * 5.

小白也能玩 OpenClaw?ToDesk AI桌面助手ToClaw 把门槛打到了零

小白也能玩 OpenClaw?ToDesk AI桌面助手ToClaw 把门槛打到了零

一、开篇 最近"小龙虾"彻底火出圈了。打开抖音、刷刷小红书,满屏都是 OpenClaw 的教程、测评和安装实录。更夸张的是,有人专门上门帮人部署,甚至有公司门口排起了长队——就为了装一只"龙虾"。 这波热度不亚于当年 ChatGPT 刚出来的时候。但热闹背后,有一个问题没人说清楚:这么多人在排队,到底在排什么?排的是环境配置、是服务器、是 API Key、是一堆看不懂的命令行。原生 OpenClaw 能力确实强,但它本质上是一个开源框架,想真正跑起来,你得先过技术这关。对普通用户来说,光是部署这一步,就足够劝退了。 所以问题来了——龙虾这么香,普通人就真的没办法吃到吗? 还真不一定。ToDesk 悄悄做了一件事,把这只龙虾"

Stable Diffusion AIGC 视觉设计实战教程之 09-ControlNet 插件

ControlNet 插件 ControlNet 概述 ControlNet(控制网)是由 lllyasviel 团队于 2023 年提出的神经网络架构,核心是为了解决在 Stable Diffusion 中如何让图像生成变得更加可控的问题,是 Stable Diffusion 迈向工业化的非常重要的一步。 ControlNet 通过预处理器提取参考图中的姿态、深度、边缘等结构信息,再由 ControlNet 模型转换为检查点模型能够理解的生成条件,让生成图像精准遵循参考图的布局与结构,彻底解决生图结构失控的痛点,是 Stable Diffusion 中实现精准控图的核心插件。 ControlNet 插件的应用场景: * 插画创作:基于线稿生成高精度彩色插画,保留线条构图。 * 角色设计:基于姿势参考图生成指定动作的角色形象,如游戏角色战斗姿势等。 * 建筑可视化:根据图纸生成写实风格的建筑效果图。 * 3D 模型辅助生成:根据深度图、法线图控制生成图像的空间立体感,辅助 3D 建模纹理绘制。 * 摄影修图: