OpenClaw中飞书机器人配置指南:如何让群消息免 @ 也能自动回复

用 OpenClaw 做飞书机器人时,默认配置下,群里的消息必须 @ 机器人 才能触发回复。这在很多场景下很不方便——如果希望机器人在群里"隐身"工作,不用 @ 就能自动监听和回复,需要额外配置。

本文记录我解决这个问题的完整过程,供同样踩坑的同学参考。


问题描述

现象:

  • 飞书群里 @ 机器人 → 正常回复 ✅
  • 飞书群里不 @ 机器人 → 没有任何反应 ❌

环境:

  • OpenClaw 框架
  • 飞书自建应用(机器人)
  • WebSocket 长连接模式

解决过程

第一步:修改 OpenClaw 配置

openclaw.json 中找到飞书渠道配置:

"channels":{"feishu":{"requireMention":false,...}}

requireMention 设为 false,让 OpenClaw 不再强制要求 @ 机器人。

但这还不够 ❌

第二步:申请飞书平台权限

修改 OpenClaw 配置后测试,发现消息依然收不到。

查日志发现:消息根本没有到达 OpenClaw——问题出在飞书平台层面

飞书默认只推送 @ 机器人 的消息到应用。如果要接收群里所有消息(不限于 @),需要在飞书开放平台申请一个敏感权限:

权限名称:im:message.group_msg(获取群组中所有消息)

第三步:在飞书开放平台申请权限

  1. 打开 飞书开放平台,进入你的应用
  2. 事件与回调事件配置接收消息 → 获取群组中所有信息(敏感权限) im:message.group_msg → 申请开通

第四步:验证效果

权限生效后,在群里发消息不用 @ 机器人,OpenClaw 就能正常收到并自动回复了 ✅


完整配置参考

OpenClaw 飞书渠道配置(完整示例)

"channels":{"feishu":{"enabled":true,"appId":"cli_xxxx","appSecret":"xxxx","domain":"feishu","connectionMode":"websocket","requireMention":false,"dmPolicy":"allowlist","allowFrom":["ou_你的用户ID"],"groupAllowFrom":["ou_你的用户ID"],"groupPolicy":"allowlist","groups":{"*":{"enabled":true}}}}

需要申请的飞书权限清单

权限标识名称类型说明
im:message发送消息基础权限机器人发消息
im:message.group_at_msg:readonly接收群@消息事件基础权限接收群内@机器人消息
im:message.group_msg获取群组中所有消息敏感权限接收群内所有消息(不限于@)
im:message.p2p_msg:readonly接收单聊消息基础权限接收私信

注意事项

  1. im:message.group_msg 是敏感权限
    • 需要企业管理员审批
    • 审批通过后才能使用
    • 建议同时申请 im:message.group_at_msg:readonly(基础权限)
  2. 权限申请后需要重新发布应用
    • 权限审批通过后,必须重新发布版本才能生效
  3. requireMention: false 的作用
    • 设为 false 后,OpenClaw 不会强制要求消息必须 @ 机器人
    • 但如果飞书平台没有相应权限,消息根本不会推送到 OpenClaw
  4. WebSocket vs Webhook
    • 推荐使用 WebSocket 模式,更简单
    • 如果用 Webhook 模式,还需要额外配置 verificationTokenencryptKey

相关文档


总结

飞书群消息免 @ 触发机器人的关键就两步:

  1. OpenClaw 侧requireMention: false
  2. 飞书平台侧:申请 im:message.group_msg 敏感权限并重新发布应用

两个缺一不可。按照这个流程配置,应该就能实现群里自由对话了。


首发于我的博客:https://blog.ZEEKLOG.net/QIU176161650
欢迎交流讨论!

Read more

Whisper-large-v3智能助手构建:基于Gradio的多语言语音交互界面

Whisper-large-v3智能助手构建:基于Gradio的多语言语音交互界面 想象一下,你有一段外语会议录音需要整理成文字,或者想为一段视频快速生成字幕,又或者只是想试试把语音实时转成文字。过去,你可能需要下载各种软件,或者忍受在线服务缓慢的速度和繁琐的步骤。 现在,情况完全不同了。基于OpenAI开源的Whisper Large v3模型,我们可以轻松搭建一个属于自己的、功能强大的语音识别Web服务。它不仅能识别99种语言,还能自动检测语言类型,支持上传文件和实时录音,而且完全在你的掌控之中。 今天,我就带你一步步构建这个智能语音助手,并用Gradio给它装上一个简洁好用的网页界面。整个过程就像搭积木一样简单,即使你不是专业的AI工程师,也能跟着完成。 1. 项目能做什么? 在开始动手之前,我们先看看这个项目搭建好后,能帮你解决哪些实际问题。 核心功能亮点: * 多语言识别:支持包括中文、英文、日语、法语、德语等在内的99种语言,系统能自动判断你上传的音频是哪种语言。 * 两种使用方式: * 文件上传:直接上传WAV、MP3、M4A等常见格式的音频文件

论文通关密码!paperxie 降重复 | AIGC 率工具,让学术写作告别 “红线” 焦虑

论文通关密码!paperxie 降重复 | AIGC 率工具,让学术写作告别 “红线” 焦虑

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/aippt https://www.paperxie.cn/weight?type=1https://www.paperxie.cn/weight?type=1https://www.paperxie.cn/weight?type=1 对于每一位学术创作者而言,论文的重复率与 AIGC 率,就像悬在头顶的两把 “达摩克利斯之剑”。重复率过高会被判定为学术不端,AIGC 率超标则可能被质疑内容真实性,二者任何一项不达标,都可能让数月的心血付诸东流。而 paperxie 的降重复 | AIGC 率功能,正是为破解这些痛点而生,用技术为学术写作保驾护航。 一、多场景覆盖,从源头解决学术 “合规” 难题 打开 paperxie

Qwen3-VL-WEBUI傻瓜式教程:文科生也能玩转AI绘画,1块钱体验

Qwen3-VL-WEBUI傻瓜式教程:文科生也能玩转AI绘画,1块钱体验 引言:AI绘画其实很简单 作为一名艺术生或创意工作者,你可能经常被各种AI绘画工具的技术术语吓退——"显存占用"、"量化精度"、"多模态模型"这些词听起来就像天书。但今天我要告诉你一个好消息:用Qwen3-VL-WEBUI玩转AI绘画,真的不需要懂编程。 Qwen3-VL是阿里最新推出的多模态大模型,它能同时理解文字和图像。而WEBUI则是它的"傻瓜操作界面",就像手机APP一样点按就能用。最关键的是,现在通过ZEEKLOG算力平台,1块钱就能体验这个强大的AI创作工具。 在这篇教程里,我会用最直白的语言,带你完成: 1. 零代码部署Qwen3-VL-WEBUI 2. 用自然语言生成惊艳画作 3. 调整几个简单参数获得理想效果 4. 解决新手常见问题 1. 准备工作:1分钟搞定环境 1.1 选择适合的GPU配置 虽然Qwen3-VL有多个版本,但我们要用的是专门优化过的8B版本,它对显存要求非常友好:

Whisper模型部署实战指南:从零开始构建Windows安装包

Whisper模型部署实战指南:从零开始构建Windows安装包 【免费下载链接】WhisperHigh-performance GPGPU inference of OpenAI's Whisper automatic speech recognition (ASR) model 项目地址: https://gitcode.com/gh_mirrors/wh/Whisper 在Windows环境部署Whisper语音识别模型时,你是否曾因DLL依赖缺失、模型路径配置混乱或运行时环境不兼容而头疼?本文将带你通过WiX Toolset构建专业的MSI安装包,实现Whisper模型的一键部署、环境自动检测与干净卸载。你将掌握安装包制作的全流程,包括问题诊断、方案设计、实施验证和扩展优化,让你的语音识别应用部署效率提升90%。 一、问题诊断:Whisper部署常见故障与根源分析 学习目标 * 识别Whisper部署的三大核心障碍 * 掌握依赖关系分析方法 * 学会系统环境兼容性检测技巧 1.1 部署失败的典型场景与症状 当你尝试在Windows系统部署Whisper时,