打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw

打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw

不得不承认腾讯进步的速度太快了,几条命令就可以接入Openclaw,也不用设置IP白名单了,在 QQ开放平台还增加了专门的Openclaw入口:

在这里插入图片描述

没啥好说的,很简单,安装完Openclaw之后,执行如下命令(命令也是生成好的):

openclaw plugins install @tencent-connect/openclaw-qqbot@latest openclaw channels add--channel qqbot --token"" openclaw gateway restart 

以下内容已经过时了,留作纪念
以下内容已经过时了,留作纪念
以下内容已经过时了,留作纪念


⚠️ 重要提示:如果是家用宽带,没有申请固定 IP 地址的话,大可以放弃这种方式。由于 QQ 开发平台的白名单限制,机器人会非常不稳定,频繁掉线。建议使用云服务器或有固定 IP 的环境部署。

前言

在完成 OpenClaw 安装后,除了飞书,我们还可以通过 QQ 机器人来控制你的 AI 助手。本文将介绍如何将 OpenClaw 接入 QQ 机器人平台。

但在此之前,必须提醒大家:QQ 机器人对网络环境要求极高。

⚠️ 家用宽带用户的劝退警告

在开始之前,必须坦诚地告诉你:

QQ 机器人接入的限制

IP 白名单机制:QQ 开放平台要求配置服务器 IP 到白名单中
家用宽带问题:
绝大多数家庭宽带没有固定 IP
运营商每天会更换 IP 地址(甚至每小时)
每当 IP 变更,机器人就会离线
需要反复手动更新白名单
实际体验:
机器人频繁掉线
消息收发不稳定
需要额外的动态 DNS 工具配合

建议方案

环境推荐程度说明
云服务器(阿里云/腾讯云)✅ 推荐有固定 IP,稳定
企业宽带(固定 IP)✅ 推荐稳定,但成本高
家用宽带(动态 IP)❌ 不推荐不稳定,频繁掉线
如果你使用的是家用宽带,建议直接放弃 QQ 机器人方案,改用飞书或其他方式。

第一步:准备工作

1.1 访问 QQ 开放平台

打开浏览器,访问:QQ 开放平台

使用你的 QQ 号登录。

1.2 创建机器人应用

进入「应用管理」页面
点击「创建机器人」
填写应用名称(如:OpenClaw-QQ)
提交审核(沙箱模式下可添加测试用户)

1.3 获取凭证信息

创建成功后,在应用详情页获取:
AppID
AppSecret(ClientSecret)

💡 Token 格式为:AppID:AppSecret(用冒号连接)

1.4 配置 IP 白名单(关键步骤)

在 QQ 开放平台的应用设置中,找到「服务器配置」或「白名单设置」:
添加你的服务器公网 IP
如果是云服务器,确保安全组已开放相应端口

⚠️ 如果你的 IP 会变化,每次变更后都需要来这里更新白名单。

第二步:安装 QQ Bot 插件

在终端执行以下命令:
openclaw plugins install @sliverp/[email protected]

等待 1-2 分钟,插件会自动下载安装。

⚠️ 安装过程需要一些时间,小内存机器请耐心等待

第三步:配置 QQ 机器人

方式一:交互式配置

openclaw channels add

选择 qqbot,按提示输入 Token

方式二:命令行配置

openclaw channels add --channel qqbot --token “AppID:AppSecret”

方式三:手动编辑

编辑 ~/.openclaw/openclaw.json
{
“channels”: {
“qqbot”: {
“enabled”: true,
“appId”: “你的AppID”,
“clientSecret”: “你的AppSecret”
}
}
}

第四步:启动服务

重启网关(后台运行)

openclaw gateway restart

或前台运行查看日志

openclaw gateway --port 18789 --verbose

第五步:测试连接

在 QQ 开放平台添加你的 QQ 号为测试用户
在 QQ 中搜索你的机器人名称
将机器人加入群聊或发起私聊
在群聊中 @机器人 发送消息测试

⚠️ 群聊中需要 @机器人 才能触发回复

功能特性

功能支持情况
C2C 私聊✅ 支持
群聊 @消息✅ 支持
频道消息✅ 支持
图片收发✅ 支持
文件发送✅ 支持
Markdown 格式✅ 支持
定时推送✅ 支持
输入状态提示✅ 支持

常见问题

Q:机器人显示离线?
检查服务器 IP 是否已加入白名单
确认 IP 是否发生变化
检查 OpenClaw 网关是否正常运行
Q:收不到群消息?
检查是否在群内 @机器人
确认机器人已在沙箱模式中添加为测试用户
查看网关日志是否有报错
Q:IP 频繁变更怎么办?
方案一:申请云服务器(推荐)
方案二:使用动态 DNS 服务 + 脚本自动更新白名单(复杂,不推荐)
方案三:放弃 QQ,改用飞书(最省心)
Q:如何升级插件?

npm 热更新

npx -y @sliverp/[email protected] upgrade

总结

QQ 机器人接入 OpenClaw 本身并不复杂,但网络环境的限制是最大的痛点。

如果你有云服务器,配置好 IP 白名单后基本可以稳定使用。但如果你只有家用宽带,建议直接放弃这个方案——频繁的 IP 变更会让你疲于奔命,白名单永远跟不上变化。

省心的选择:
云服务器部署 → 推荐
家用宽带 + 动态 IP → 不推荐
改用飞书 → 省心稳定

系列文章:
打造你的家庭 AI 助手(一):OpenClaw 安装与配置
打造你的家庭 AI 助手(二):飞书机器人接入你的 OpenClaw
打造你的家庭 AI 助手(三):QQ 机器人接入你的 OpenClaw(本文)

Read more

Llama-3.2-3B部署案例:Ollama镜像免配置+Mac M1/M2芯片原生运行实测

Llama-3.2-3B部署案例:Ollama镜像免配置+Mac M1/M2芯片原生运行实测 想在Mac上快速体验最新的大语言模型?Llama-3.2-3B配合Ollama镜像,让你5分钟内就能开始与AI对话,无需任何复杂配置。 作为一名长期在Mac上折腾AI模型的技术爱好者,我最头疼的就是环境配置和依赖问题。每次看到"只需简单几步"的教程,结果往往需要安装一堆库、解决各种兼容性问题。 直到遇到了Ollama版的Llama-3.2-3B镜像,我才真正体验到了什么叫"开箱即用"。特别是对Mac M1/M2用户来说,这个镜像做了原生优化,不需要通过Rosetta转译,性能直接拉满。 1. Llama-3.2-3B模型简介 Llama 3.2是Meta最新推出的轻量级大语言模型系列,包含1B和3B两个版本。我这次实测的3B版本虽然在参数规模上不算巨大,但在多语言对话场景下的表现相当惊艳。 1.1 核心特点 这个模型专门针对多语言对话进行了优化,无论是中文、英文还是其他语言,都能保持不错的对话流畅度。我在测试中发现,它在理解用户意图和生成连贯回复方面,

人工智能:什么是AIGC?什么是AI4S?人工智能四大核心领域全景解析

人工智能:什么是AIGC?什么是AI4S?人工智能四大核心领域全景解析

文章目录 * 引言:AI 领域 “四分天下” * 一、AIGC:生成式 AI,内容创作的 “全能造物主” * 二、AI for Science(AI4S):科学智能,加速人类认知边界 * 三、CV(计算机视觉):计算机的 “眼睛”,感知世界的核心 * 四、自然语言处理(NLP):人机沟通的 “翻译官”,语言理解的巅峰 * 不同领域的协同与区别 * 结合四大领域的案例——HealthGPT 引言:AI 领域 “四分天下” 斯坦福大学 2025 年《人工智能指数报告》指出,AI 已从实验室突破全面进入社会深度应用期,形成四大核心领域支撑的技术生态。这四大领域并非孤立存在,而是相互协同、共同推动 AI 从

文心一言开源版部署及多维度测评实例

文心一言开源版部署及多维度测评实例

文章目录 * 第一章 文心一言开源模型简介 * 第二章 模型性能深度实测 * 2.1 通用能力基准测试 * 2.1.1 文本生成质量 * 2.1.2 数学推理能力 * 2.2 极端场景压力测试 * 2.2.1 高并发性能 * 2.2.2 长上下文记忆 * 第三章 中文特色能力解析 * 3.1.2 文化特定理解 * 3.2 行业术语处理 * 3.2.1 法律文书解析 * 3.2.2 医疗报告生成 * 第四章 开源生态建设评估 * 4.1 模型可扩展性验证 * 4.

一文熟悉新版llama.cpp使用并本地部署LLAMA

一文熟悉新版llama.cpp使用并本地部署LLAMA

0. 简介 关于UCloud(优刻得)旗下的compshare算力共享平台 UCloud(优刻得)是中国知名的中立云计算服务商,科创板上市,中国云计算第一股。 Compshare GPU算力平台隶属于UCloud,专注于提供高性价4090算力资源,配备独立IP,支持按时、按天、按月灵活计费,支持github、huggingface访问加速。 使用下方链接注册可获得20元算力金,免费体验10小时4090云算力 https://www.compshare.cn/?ytag=GPU_lovelyyoshino_LZEEKLOG_ZEEKLOG_display 最近是快到双十一了再给大家上点干货。去年我们写了一个大模型的系列,经过一年,大模型的发展已经日新月异。这一次我们来看一下使用llama.cpp这个项目,其主要解决的是推理过程中的性能问题。主要有两点优化: * llama.cpp 使用的是 C 语言写的机器学习张量库 ggml llama.cpp 提供了模型量化的工具 此项目的牛逼之处就是没有GPU也能跑LLaMA模型。llama.