OpenClaw 接入 QQ Bot 完整指南:让你的 AI 助手入驻 QQ

OpenClaw 接入 QQ Bot 完整指南:让你的 AI 助手入驻 QQ

TL;DR: OpenClaw 2026.3.31 正式支持 QQ Bot,可以接入 QQ 私聊、群聊,支持图片、语音、视频、文件等富媒体消息,还支持语音识别、日程提醒、Markdown 格式化等功能。


背景

QQ 是国内最主流的即时通讯工具之一,拥有大量技术社区用户。在此之前,OpenClaw 已经支持了钉钉、Slack、Telegram、飞书等渠道,这次更新终于把 QQ 也纳入了版图。

这次 QQ Bot 支持是由腾讯官方团队贡献的(@sliverp),直接对接 QQ 官方 Bot API,不是第三方桥接,稳定性有保障。


功能特性一览

功能说明
🔒 多场景支持C2C 私聊、群 @消息
🖼️ 富媒体支持收发图片、语音、视频、文件
🎙️ 语音识别(STT)语音消息自动转文字,AI 像处理文字一样处理语音
🔥 一键热升级在私聊窗口发 /bot-upgrade 即可升级,无需登录服务器
⏰ 定时推送通过 OpenClaw cron 定时主动发消息
🔗 URL 直链私聊支持直接 URL 发送,无限制
⌨️ Typing 指示器对方能看到「Bot 正在输入…」状态
📝 Markdown 格式支持完整的 Markdown 渲染
💬 引用消息上下文能识别 QQ 的 REFIDX_* 引用并注入引用内容到 AI 上下文
📦 大文件支持最大支持 100MB 文件自动分片上传

安装前提

1. 创建 QQ 机器人

前往 QQ 开放平台 创建应用,获取:

  • App ID
  • App Secret

2. 安装插件

openclaw plugins install @sliverp/qqbot 

3. 配置

openclaw.json 中添加:

channels:qq:enabled:trueappId:"YOUR_APP_ID"appSecret:"YOUR_APP_SECRET"# 多账号支持accounts:-appId:"YOUR_APP_ID_1"appSecret:"YOUR_APP_SECRET_1"-appId:"YOUR_APP_ID_2"appSecret:"YOUR_APP_SECRET_2"

核心功能详解

1. 富媒体消息

发送图片:
直接让 AI 返回图片路径或 URL,插件自动转发到 QQ。

支持格式:jpg/png/gif/webp/bmp 

发送语音(TTS):
AI 可以直接回复语音消息,插件自动转换。

支持格式:mp3/wav/silk/ogg,无需 ffmpeg 

文件理解:
发送 TXT、文档、表格等文件给 Bot,AI 自动识别内容并回复。

上传《战争与和平》txt → AI 自动总结第一章内容 

2. 语音识别(STT)

配置 STT 后,语音消息会自动转成文字再交给 AI 处理。用户发送语音就像发送文字一样自然。

用户:(发送语音) "深圳明天天气怎么样?" Bot:明天(3月7日 周六)深圳天气预报 🌤️... 

3. 引用消息上下文

QQ 的引用消息只携带 REFIDX_* 索引,不包含原文。插件现在会自动从本地持久化存储中查找引用原文,并注入到 AI 输入中,让 AI 理解「你在回复哪条消息」。

引用存储路径:~/.openclaw/qqbot/data/ref-index.jsonl (重启 Gateway 后仍然保留) 

4. 一键热升级

在私聊窗口发送:

/bot-upgrade 

插件会自动检测并升级,无需登录服务器,适合没有 SSH 权限的用户。

5. 日程提醒

用户:提醒我 5 分钟后吃饭 Bot:确认日程 → 到点后主动发语音+文字提醒 

依赖 OpenClaw 的 cron 调度和主动消息推送能力。


多账号支持

QQ Bot 支持多账号配置:

channels:qq:enabled:trueaccounts:-appId:"APP_ID_1"appSecret:"APP_SECRET_1"# 可选:为不同账号设置不同前缀name:"Bot1"-appId:"APP_ID_2"appSecret:"APP_SECRET_2"name:"Bot2"

SecretRef 凭证管理

生产环境建议使用 SecretRef 而非明文配置:

channels:qq:enabled:trueappId:$env: QQ_APP_ID appSecret:$secret: qq-app-secret 

与其他渠道的对比

渠道富媒体STT/TTS多账号热升级引用上下文
QQ Bot✅ 全部✅ STT+TTS
钉钉✅ 图片/文件
Slack✅ 全部
飞书✅ 全部
Telegram✅ 全部✅ TTS

适用场景

  1. 技术社区运营:QQ 群是国内技术交流的重要场所,接入 AI 助手可以自动回答常见问题
  2. 个人助手:用自己的 AI 助手对接 QQ,随时随地提问
  3. 群管理:自动处理入群审核、常见问题回复
  4. 富媒体场景:需要处理图片、语音、文件的复杂对话场景

注意事项

  1. 插件本身只是消息通道:图片理解、语音识别等能力取决于你配置的 AI 模型,不是插件自带的功能
  2. 定时提醒可能被拦截:如果提醒没有送达,常见原因是 QQ 侧拦截了机器人的主动消息
  3. 引用消息索引持久化:存储在 ~/.openclaw/qqbot/data/ref-index.jsonl,定期清理可节省空间

下一步


项目内容
作者胡小纯
发布日期2026-03-24
联系微信hu–xiaochun
个人主页https://胡小纯.cn
备用主页https://xn–yets91feqb.cn/
技术没有捷径,但有方向

Read more

Qwen3-TTS部署教程:Qwen3-TTS与Whisper ASR构建双向语音对话系统

Qwen3-TTS部署教程:Qwen3-TTS与Whisper ASR构建双向语音对话系统 想象一下,你对着电脑说一句话,电脑不仅能听懂,还能用自然、有感情的声音回答你,整个过程流畅得就像在和朋友聊天。这听起来像是科幻电影里的场景,但现在,通过Qwen3-TTS和Whisper ASR这两个强大的开源模型,我们完全可以自己动手搭建这样一个系统。 今天,我就带你一步步实现这个目标。无论你是想做一个智能语音助手,还是想为你的应用增加语音交互功能,这篇教程都会给你一个清晰的路线图。我们会从最基础的部署开始,到最终实现一个能听会说的双向对话系统。 1. 准备工作与环境搭建 在开始之前,我们先来了解一下今天要用到的两个核心工具。 Qwen3-TTS 是一个强大的文本转语音模型。它最吸引人的地方在于,它支持10种主要语言,包括中文、英文、日文等,还能生成多种方言和语音风格。更厉害的是,它能理解你文本里的情感和意图,自动调整说话的语调、语速,让生成的声音听起来特别自然。 Whisper ASR 则是OpenAI开源的语音识别模型,它的识别准确率非常高,支持多种语言,而且对带口音、有噪声

2025终极指南:whisper.cpp跨平台语音识别部署全流程

2025终极指南:whisper.cpp跨平台语音识别部署全流程 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 还在为语音转文字服务的网络延迟和高成本烦恼?whisper.cpp作为开源语音识别解决方案,提供了本地化部署的完美选择。本文将带你深入了解如何在不同平台上快速部署和使用这个强大的离线语音识别工具。 通过本文,你将掌握: * 多平台环境配置的一键安装方法 * 模型下载与优化的性能调优技巧 * 常见部署问题的快速解决方案 * 监控与维护的最佳实践 平台选择:找到最适合你的方案 平台类型安装难度推理速度内存占用适用场景Windows桌面⭐⭐1.2x1.1GB个人使用Linux服务器⭐⭐⭐1.5x0.9GB企业部署macOS开发⭐2.0x0.7GB移动应用Android设备⭐⭐⭐⭐0.8x0.5GB边缘计算 环境搭建:快速启动的完整步骤 基础环境准备

AIGC 新势力:探秘海螺 AI 与蓝耘 MaaS 平台的协同创新之旅

AIGC 新势力:探秘海螺 AI 与蓝耘 MaaS 平台的协同创新之旅

探秘海螺AI:多模态架构下的认知智能新引擎 在人工智能持续进阶的进程中,海螺AI作为一款前沿的多功能AI工具,正凭借其独特的多模态架构崭露头角。它由上海稀宇科技有限公司(MiniMax)精心打造,依托自研的万亿参数MoE大语言模型ABAB6.5以及MiniMax语音大模型,展现出非凡的技术实力与应用潜力。MiniMax的核心团队源自商汤科技等业内知名企业,在多模态大模型研发领域深耕细作,为海螺AI的诞生奠定了坚实基础。 在这里插入图片描述 一、核心模型架构剖析 (一)基础模型:abab - 6.5 海螺AI的基础模型abab - 6.5采用了创新的混合专家系统设计,借助动态路由机制,即Sparse Gating Network,可依据输入内容智能激活8 - 12个子专家模型。这些子专家模型涵盖代码专家、多语言专家、逻辑推理专家等,各司其职,协同作业。在参数规模上,abab - 6.5总参数量高达1.2万亿,同时通过巧妙的设计,将活跃参数量控制在2000亿/query,有效平衡了模型的高容量与低推理成本。在训练优化环节,

Llama-Factory微调Qwen2.5-VL从数据集制作到部署记录

Llama-Factory微调Qwen2.5-VL从数据集制作到部署记录 电脑环境配置: 1.ubuntu24 2.3090(24G) 3.Cuda==12.9 一、数据集制作 我的数据集主要是对图像内容进行描述 1.Label-studio制作数据集 这是最原始的从零开始制作数据集的方法,不建议这样做! 安装完label-studio后,输入指令启动 label-studio start 进入浏览器界面 创建项目:Create Project,引入图片后,选择图像描述数据集制作(Image Captioning) 2.利用Qwen2.5-VL半自动制作数据集 既然qwen本身具有较好的图像描述能力,那我们可以先使用qwen进行图像描述,在此基础上进行复核修改,这样做可以减少人力成本。 我这编写的脚本如下: import torch from modelscope import Qwen2_5_VLForConditionalGeneration, AutoTokenizer, AutoProcessor from