打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw

打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw

不得不承认腾讯进步的速度太快了,几条命令就可以接入Openclaw,也不用设置IP白名单了,在 QQ开放平台还增加了专门的Openclaw入口:

在这里插入图片描述

没啥好说的,很简单,安装完Openclaw之后,执行如下命令(命令也是生成好的):

openclaw plugins install @tencent-connect/openclaw-qqbot@latest openclaw channels add--channel qqbot --token"" openclaw gateway restart 

以下内容已经过时了,留作纪念
以下内容已经过时了,留作纪念
以下内容已经过时了,留作纪念


⚠️ 重要提示:如果是家用宽带,没有申请固定 IP 地址的话,大可以放弃这种方式。由于 QQ 开发平台的白名单限制,机器人会非常不稳定,频繁掉线。建议使用云服务器或有固定 IP 的环境部署。

前言

在完成 OpenClaw 安装后,除了飞书,我们还可以通过 QQ 机器人来控制你的 AI 助手。本文将介绍如何将 OpenClaw 接入 QQ 机器人平台。

但在此之前,必须提醒大家:QQ 机器人对网络环境要求极高。

⚠️ 家用宽带用户的劝退警告

在开始之前,必须坦诚地告诉你:

QQ 机器人接入的限制

IP 白名单机制:QQ 开放平台要求配置服务器 IP 到白名单中
家用宽带问题:
绝大多数家庭宽带没有固定 IP
运营商每天会更换 IP 地址(甚至每小时)
每当 IP 变更,机器人就会离线
需要反复手动更新白名单
实际体验:
机器人频繁掉线
消息收发不稳定
需要额外的动态 DNS 工具配合

建议方案

环境推荐程度说明
云服务器(阿里云/腾讯云)✅ 推荐有固定 IP,稳定
企业宽带(固定 IP)✅ 推荐稳定,但成本高
家用宽带(动态 IP)❌ 不推荐不稳定,频繁掉线
如果你使用的是家用宽带,建议直接放弃 QQ 机器人方案,改用飞书或其他方式。

第一步:准备工作

1.1 访问 QQ 开放平台

打开浏览器,访问:QQ 开放平台

使用你的 QQ 号登录。

1.2 创建机器人应用

进入「应用管理」页面
点击「创建机器人」
填写应用名称(如:OpenClaw-QQ)
提交审核(沙箱模式下可添加测试用户)

1.3 获取凭证信息

创建成功后,在应用详情页获取:
AppID
AppSecret(ClientSecret)

💡 Token 格式为:AppID:AppSecret(用冒号连接)

1.4 配置 IP 白名单(关键步骤)

在 QQ 开放平台的应用设置中,找到「服务器配置」或「白名单设置」:
添加你的服务器公网 IP
如果是云服务器,确保安全组已开放相应端口

⚠️ 如果你的 IP 会变化,每次变更后都需要来这里更新白名单。

第二步:安装 QQ Bot 插件

在终端执行以下命令:
openclaw plugins install @sliverp/[email protected]

等待 1-2 分钟,插件会自动下载安装。

⚠️ 安装过程需要一些时间,小内存机器请耐心等待

第三步:配置 QQ 机器人

方式一:交互式配置

openclaw channels add

选择 qqbot,按提示输入 Token

方式二:命令行配置

openclaw channels add --channel qqbot --token “AppID:AppSecret”

方式三:手动编辑

编辑 ~/.openclaw/openclaw.json
{
“channels”: {
“qqbot”: {
“enabled”: true,
“appId”: “你的AppID”,
“clientSecret”: “你的AppSecret”
}
}
}

第四步:启动服务

重启网关(后台运行)

openclaw gateway restart

或前台运行查看日志

openclaw gateway --port 18789 --verbose

第五步:测试连接

在 QQ 开放平台添加你的 QQ 号为测试用户
在 QQ 中搜索你的机器人名称
将机器人加入群聊或发起私聊
在群聊中 @机器人 发送消息测试

⚠️ 群聊中需要 @机器人 才能触发回复

功能特性

功能支持情况
C2C 私聊✅ 支持
群聊 @消息✅ 支持
频道消息✅ 支持
图片收发✅ 支持
文件发送✅ 支持
Markdown 格式✅ 支持
定时推送✅ 支持
输入状态提示✅ 支持

常见问题

Q:机器人显示离线?
检查服务器 IP 是否已加入白名单
确认 IP 是否发生变化
检查 OpenClaw 网关是否正常运行
Q:收不到群消息?
检查是否在群内 @机器人
确认机器人已在沙箱模式中添加为测试用户
查看网关日志是否有报错
Q:IP 频繁变更怎么办?
方案一:申请云服务器(推荐)
方案二:使用动态 DNS 服务 + 脚本自动更新白名单(复杂,不推荐)
方案三:放弃 QQ,改用飞书(最省心)
Q:如何升级插件?

npm 热更新

npx -y @sliverp/[email protected] upgrade

总结

QQ 机器人接入 OpenClaw 本身并不复杂,但网络环境的限制是最大的痛点。

如果你有云服务器,配置好 IP 白名单后基本可以稳定使用。但如果你只有家用宽带,建议直接放弃这个方案——频繁的 IP 变更会让你疲于奔命,白名单永远跟不上变化。

省心的选择:
云服务器部署 → 推荐
家用宽带 + 动态 IP → 不推荐
改用飞书 → 省心稳定

系列文章:
打造你的家庭 AI 助手(一):OpenClaw 安装与配置
打造你的家庭 AI 助手(二):飞书机器人接入你的 OpenClaw
打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw(本文)

Read more

TTS 网站加密请求 / 响应体逆向分析:基于 WebAssembly 的加密解密全流程

TTS 网站加密请求 / 响应体逆向分析:基于 WebAssembly 的加密解密全流程

一、背景:从明文到加密的逆向困境 之前使用某TTS网站时,请求体都是明文传输;近期网站升级后,请求/响应均被加密,首次接触加密接口逆向时毫无头绪,最终借助调试工具+逻辑分析,理清了基于WebAssembly的加密解密流程。 二、逆向核心:定位encrypt_req为请求体加密函数 要破解加密逻辑,首先需确定哪个函数负责请求体加密。通过「函数语义+参数特征+代码逻辑+Wasm桥接规则+抓包验证」5个维度,最终锁定encrypt_req是核心加密函数。 1. 从函数名语义锁定方向 encrypt_req由encrypt(加密)+req(request,请求)组成,字面含义就是“对请求进行加密”,结合“请求体是HTTP加密核心”的常识,初步判断其作用是加密请求体。 2. 从参数特征确认加密对象 函数定义为export function encrypt_req(body) { ... }: * Web开发中,

Hunyuan-MT-7B-WEBUI vs 通用翻译工具,谁更强?

Hunyuan-MT-7B-WEBUI vs 通用翻译工具,谁更强? 你有没有过这样的经历: 复制一段英文技术文档到某翻译网站,点下“翻译”,结果出来的是“该模型正在思考人生”——或者更糟:语序混乱、术语错译、逻辑断裂。再试一次,换种说法,又翻出完全不同的意思。最后只好硬着头皮啃原文,边查词典边猜。 这不是你的问题,是大多数通用翻译工具在面对专业、严谨、结构复杂的文本时的真实表现。 而当你打开 Hunyuan-MT-7B-WEBUI 的网页界面,输入同样一段话,几秒后返回的译文——句式自然、术语统一、逻辑完整,甚至保留了原文的学术语气。更关键的是:它不联网、不上传、不记录,所有操作都在你自己的服务器上完成。 这不是理想化的宣传,而是我们实测中反复验证的结果。今天我们就抛开参数和榜单,用真实场景、真实文本、真实体验,来一场Hunyuan-MT-7B-WEBUI 与主流通用翻译工具的硬碰硬对比。 1. 翻译能力不是“能翻就行”,而是“翻得准、

AI对话应用接口开发全解析:同步接口+SSE流式+智能体+前端对接

AI对话应用接口开发全解析:同步接口+SSE流式+智能体+前端对接

AI对话应用接口开发 我们平时开发的大多数都是同步接口,也就是扥后端处理完再返回。但是对于AI应用,特别是响应时间较长的应用,可能会让用户失去耐心等待,因此推荐使用SSE技术实现实时流式输出,类似打字机效果,大幅度提升用户体验 开发AI对话同步接口 接下来我们先开发AI同步接口,对比学习。首先我们编写一个与"科泰旅游大师"对话的接口,使用常规同步的方式获得对话结果。 在controller包中新建ChatWithAIController,如下图所示: 编写同步接口: @RestController @RequestMapping("/ai") public class ChatWithAIController { // 注入TravelApp实例 @Resource private TravelApp travelApp; /* * 前端可以通过此方法获得一个ID * */ @GetMapping("/chat/new") public String newChat(){ return UUID.randomUUID().toString(); } // 与AI聊天(同

年度心得总结——前端领域

年度心得总结——前端领域

又是一年时光转,岁月如梭学习繁。 笔耕岁月求知路,心悟真谛志愈坚。 往昔耕耘结硕果,未来展望展宏愿。 共聚一堂话成就,再创辉煌谱新篇。 此刻,我暂且搁下手中的键盘,让思绪飘回那过往的日日夜夜。回望这一年的风雨兼程,心中不禁涌动着无尽的感慨。前端领域,这片充满无限可能的天地,又经历了一轮轰轰烈烈的蓬勃发展与变革。新技术如雨后春笋般涌现,旧框架在不断迭代中焕发新生,这一切都让我对这份事业充满了无尽的热爱与敬意。 同样是在这流转的一年里,我踏上了ZEEKLOG技术博主的星辰大海之旅,愿以我余温之烛,照亮同行者的征途,期盼自己能成为ZEEKLOG夜空中那颗即便只刹那闪耀,亦能点亮梦想的星辰。 文章目录 * 一、React 框架 * (一) React 优化 * (二) 开发效率提升 * (三) 服务端渲染(SSR)集成 * (四) 其他重要优化和功能支持 * 二、Vue 框架 * (一) Vue 版本与维护方面 * (二) 性能优化与增强 * 三、技术探索