打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw

打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw

不得不承认腾讯进步的速度太快了,几条命令就可以接入Openclaw,也不用设置IP白名单了,在 QQ开放平台还增加了专门的Openclaw入口:

在这里插入图片描述

没啥好说的,很简单,安装完Openclaw之后,执行如下命令(命令也是生成好的):

openclaw plugins install @tencent-connect/openclaw-qqbot@latest openclaw channels add--channel qqbot --token"" openclaw gateway restart 

以下内容已经过时了,留作纪念
以下内容已经过时了,留作纪念
以下内容已经过时了,留作纪念


⚠️ 重要提示:如果是家用宽带,没有申请固定 IP 地址的话,大可以放弃这种方式。由于 QQ 开发平台的白名单限制,机器人会非常不稳定,频繁掉线。建议使用云服务器或有固定 IP 的环境部署。

前言

在完成 OpenClaw 安装后,除了飞书,我们还可以通过 QQ 机器人来控制你的 AI 助手。本文将介绍如何将 OpenClaw 接入 QQ 机器人平台。

但在此之前,必须提醒大家:QQ 机器人对网络环境要求极高。

⚠️ 家用宽带用户的劝退警告

在开始之前,必须坦诚地告诉你:

QQ 机器人接入的限制

IP 白名单机制:QQ 开放平台要求配置服务器 IP 到白名单中
家用宽带问题:
绝大多数家庭宽带没有固定 IP
运营商每天会更换 IP 地址(甚至每小时)
每当 IP 变更,机器人就会离线
需要反复手动更新白名单
实际体验:
机器人频繁掉线
消息收发不稳定
需要额外的动态 DNS 工具配合

建议方案

环境推荐程度说明
云服务器(阿里云/腾讯云)✅ 推荐有固定 IP,稳定
企业宽带(固定 IP)✅ 推荐稳定,但成本高
家用宽带(动态 IP)❌ 不推荐不稳定,频繁掉线
如果你使用的是家用宽带,建议直接放弃 QQ 机器人方案,改用飞书或其他方式。

第一步:准备工作

1.1 访问 QQ 开放平台

打开浏览器,访问:QQ 开放平台

使用你的 QQ 号登录。

1.2 创建机器人应用

进入「应用管理」页面
点击「创建机器人」
填写应用名称(如:OpenClaw-QQ)
提交审核(沙箱模式下可添加测试用户)

1.3 获取凭证信息

创建成功后,在应用详情页获取:
AppID
AppSecret(ClientSecret)

💡 Token 格式为:AppID:AppSecret(用冒号连接)

1.4 配置 IP 白名单(关键步骤)

在 QQ 开放平台的应用设置中,找到「服务器配置」或「白名单设置」:
添加你的服务器公网 IP
如果是云服务器,确保安全组已开放相应端口

⚠️ 如果你的 IP 会变化,每次变更后都需要来这里更新白名单。

第二步:安装 QQ Bot 插件

在终端执行以下命令:
openclaw plugins install @sliverp/[email protected]

等待 1-2 分钟,插件会自动下载安装。

⚠️ 安装过程需要一些时间,小内存机器请耐心等待

第三步:配置 QQ 机器人

方式一:交互式配置

openclaw channels add

选择 qqbot,按提示输入 Token

方式二:命令行配置

openclaw channels add --channel qqbot --token “AppID:AppSecret”

方式三:手动编辑

编辑 ~/.openclaw/openclaw.json
{
“channels”: {
“qqbot”: {
“enabled”: true,
“appId”: “你的AppID”,
“clientSecret”: “你的AppSecret”
}
}
}

第四步:启动服务

重启网关(后台运行)

openclaw gateway restart

或前台运行查看日志

openclaw gateway --port 18789 --verbose

第五步:测试连接

在 QQ 开放平台添加你的 QQ 号为测试用户
在 QQ 中搜索你的机器人名称
将机器人加入群聊或发起私聊
在群聊中 @机器人 发送消息测试

⚠️ 群聊中需要 @机器人 才能触发回复

功能特性

功能支持情况
C2C 私聊✅ 支持
群聊 @消息✅ 支持
频道消息✅ 支持
图片收发✅ 支持
文件发送✅ 支持
Markdown 格式✅ 支持
定时推送✅ 支持
输入状态提示✅ 支持

常见问题

Q:机器人显示离线?
检查服务器 IP 是否已加入白名单
确认 IP 是否发生变化
检查 OpenClaw 网关是否正常运行
Q:收不到群消息?
检查是否在群内 @机器人
确认机器人已在沙箱模式中添加为测试用户
查看网关日志是否有报错
Q:IP 频繁变更怎么办?
方案一:申请云服务器(推荐)
方案二:使用动态 DNS 服务 + 脚本自动更新白名单(复杂,不推荐)
方案三:放弃 QQ,改用飞书(最省心)
Q:如何升级插件?

npm 热更新

npx -y @sliverp/[email protected] upgrade

总结

QQ 机器人接入 OpenClaw 本身并不复杂,但网络环境的限制是最大的痛点。

如果你有云服务器,配置好 IP 白名单后基本可以稳定使用。但如果你只有家用宽带,建议直接放弃这个方案——频繁的 IP 变更会让你疲于奔命,白名单永远跟不上变化。

省心的选择:
云服务器部署 → 推荐
家用宽带 + 动态 IP → 不推荐
改用飞书 → 省心稳定

系列文章:
打造你的家庭 AI 助手(一):OpenClaw 安装与配置
打造你的家庭 AI 助手(二):飞书机器人接入你的 OpenClaw
打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw(本文)

Read more

【薅羊毛教程】LLaMaFactory 不用本地跑!免费 GPU,一键微调大模型

【薅羊毛教程】LLaMaFactory 不用本地跑!免费 GPU,一键微调大模型

一、环境 之前介绍过本地部署LLaMaFactory微调平台(https://blog.ZEEKLOG.net/m0_73982863/article/details/159208213?spm=1001.2014.3001.5501),如果你还在为设备问题而烦恼,那就来薅羊毛吧(手动狗头)。 首先注册魔搭社区,绑定个人阿里云账号即可,详情见:https://www.modelscope.cn/my/mynotebook ;然后就可免费获得36小时GPU环境。 8核:CPU有8个核心,主要负责数据的调度和预处理;32GB:内存,数据从硬盘加载后会暂时存放这里;显存24G;(比我自己的老古董好多 T-T) Ubuntu 22.04:Linux操作系统; CUDA 12.8.1:英伟达的并行计算平台。12.8版本意味着它支持最新的RTX

5步搞定!用Ollama玩转Llama-3.2-3B文本生成

5步搞定!用Ollama玩转Llama-3.2-3B文本生成 你是不是也试过在本地跑大模型,结果被复杂的环境配置、显存报错、依赖冲突搞得头大?或者下载完模型发现根本不会用,对着空白输入框发呆?别担心——这次我们不搞虚的,就用最轻量的方式,5个清晰步骤,从零开始把Llama-3.2-3B真正“用起来”。 这不是一篇讲原理的论文,也不是堆参数的说明书。它是一份写给真实使用者的操作手记:没有Docker命令恐惧症,不碰CUDA版本焦虑,不查GPU显存表,连笔记本都能跑得动。重点就一个:让你今天下午就能写出第一句由Llama-3.2-3B生成的、像人话一样的文字。 Llama-3.2-3B是Meta最新发布的轻量级指令微调模型,30亿参数,专为多语言对话优化。它不像动辄几十GB的大块头那样吃资源,却在文案生成、逻辑推理、多轮问答等任务上表现扎实。更重要的是——它和Ollama是天生一对。Ollama把模型封装成“开箱即用”的服务,而Llama-3.2-3B则把能力稳稳装进这个盒子。我们不需要知道Transformer里有多少层注意力头,只需要知道:点一下、输一句、等两秒、看到结果。 下

手把手教你用Whisper-large-v3搭建个人语音转文字服务

手把手教你用Whisper-large-v3搭建个人语音转文字服务 1. 为什么你需要一个自己的语音转文字服务 你有没有遇到过这些场景: * 开完一场两小时的线上会议,想快速整理会议纪要,却要花半天时间听录音打字; * 收到客户发来的5分钟语音咨询,一边回消息一边反复暂停播放,手忙脚乱; * 做自媒体剪辑时,反复听口播素材写字幕,耳朵累、效率低、还容易漏字。 市面上的在线语音识别工具看似方便,但存在几个现实问题:音频上传慢、隐私有风险、中文识别不准、长语音断句混乱、不支持本地部署——尤其当你处理的是内部会议、客户沟通或敏感内容时,把语音传到别人服务器上,真的安心吗? 而今天要带你搭的这个服务,就解决了所有痛点:它跑在你自己的机器上,99种语言自动识别,中文准确率高,支持实时录音和批量上传,GPU加速后30秒音频2秒出结果,全程不联网、不上传、不依赖第三方API。 这不是概念演示,而是已经稳定运行的完整Web服务——镜像名称叫“Whisper语音识别-多语言-large-v3语音识别模型 二次开发构建by113小贝”,基于OpenAI最新版Whisper Large

3步搞定llama.cpp在Linux上的GPU加速编译

3步搞定llama.cpp在Linux上的GPU加速编译 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 还在为llama.cpp的编译失败而头疼吗?😫 想让你心爱的Intel显卡在Linux系统上跑出飞一般的推理速度?今天我就带你用最简单的方法,从零开始搞定llama.cpp的GPU加速编译!无论你是AI新手还是资深开发者,都能在30分钟内完成部署。 1 问题诊断:为什么你的编译总是失败? 你有没有遇到过这样的情况:满怀期待地下载了llama.cpp源码,执行make命令后却看到一堆看不懂的错误信息?别担心,这几乎是每个Linux用户的必经之路! 常见编译失败的三大症状: * "Command not found" - 缺少关键编译器 * "Permission