喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

文章目录

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

前言

还记得以前玩 QQ 机器人吗?那时候得写一堆乱七八糟的代码,还得防着被系统检测,搞得跟做贼似的。现在好了,OpenClaw 这个开源神器直接把门槛砍到了脚底板——你只需要会复制粘贴,就能让 AI 住进你的 QQ,帮你回消息、抓数据、写周报,甚至帮你打游戏挂机。

OpenClaw 这玩意儿前身叫 Clawdbot,后来又改名叫 Moltbot,现在终于定下来叫 OpenClaw 了。名字变来变去,但核心逻辑没变:它是一个本地优先的 AI 自动化平台,说人话就是"让 AI 帮你干杂活"的工具。今天这篇教程,我就手把手教你把它对接进 QQ,不管是本地笔记本还是腾讯云服务器,都能跑起来。

一、选对路子:官方 Bot 还是个人号?

在动手之前,你得先想清楚要走哪条路。OpenClaw 对接 QQ 目前有两套方案:

方案 A:QQ 开放平台官方机器人

这是正规军路线。你去 QQ 开放平台注册个开发者账号,创建一个机器人,拿到 AppID、AppSecret、Token 这三件套,然后配置到 OpenClaw 里。好处是稳定、合法合规,坏处是只能单聊和频道,不能直接在普通 QQ 群里玩(除非申请特殊权限)。

方案 B:个人 QQ 号变身机器人

这是野路子,也是目前更实用的方案。通过 NapCat(以前叫 go-cqhttp,但那项目已经凉了)这类第三方框架,把你的个人 QQ 号改造成机器人,然后对接 OpenClaw。好处是可以在普通 QQ 群里@你使用,体验更自然;坏处是……好吧,其实没什么坏处,只要你别拿去做违法乱纪的事。

我建议大家两手准备:先用官方 Bot 练手,熟悉了再部署个人号方案。下面我会把两种方法都讲透。

二、环境准备:5 分钟搞定基础设施

不管你选哪种方案,都需要先准备好 OpenClaw 的运行环境。

1. 服务器/电脑要求

  • 本地部署:Windows 10/11 或 macOS,内存 8G 以上,最好有独立显卡(跑大模型用)
  • 腾讯云部署:轻量应用服务器 2核4G 起步,系统选 Ubuntu 22.04 或 CentOS 8

2. 安装 OpenClaw

如果你用腾讯云,阿里云那边已经有现成的镜像,一键部署就行。如果是本地或者别的云厂商,用 Docker 最省事:

拉取最新镜像(2026年2月版本)

docker pull openclaw/openclaw:latest 

运行容器

docker run -d\--name openclaw \-p18789:18789 \-v ~/.openclaw:/root/.openclaw \ openclaw/openclaw:latest 

安装完成后,浏览器访问 http://你的IP:18789,能看到控制台就说明成了。

3. 配置大模型 API

OpenClaw 本身不带大脑,需要接个大模型。推荐用阿里云百炼,新用户送 7000 万 tokens,够你玩几个月了。拿到 API Key 后,配置文件里填一下:

进入配置目录

cd ~/.openclaw 

编辑配置文件

cat > openclaw.json <<'EOF'{"models":{"providers":{"bailian":{"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1","apiKey":"sk-你的APIKey","models":[{"id":"qwen3-max-2026-01-23","name":"通义千问3","reasoning":false}]}}}}EOF

注意:reasoning 一定要设成 false,否则百炼模型返回的内容会是空的,这是个坑,我已经帮你踩过了。

三、方案 A:对接 QQ 开放平台官方机器人

这个方案适合想正儿八经做个服务的朋友,比如给公司做个内部问答助手。

Step 1:注册开发者并创建机器人

  1. 访问 QQ 开放平台 https://q.qq.com,用邮箱注册账号(注意:不能直接用 QQ 号登录,必须重新注册)
  2. 完成实名认证(个人用户传身份证,1-2 个工作日审核)
  3. 点击"创建机器人",填个名字比如"OpenClaw 小助手",能力勾选"消息接收与发送"

Step 2:获取三件套凭证

进入机器人管理页面,在"开发管理"里找到:

  • AppID:机器人 ID,一长串数字
  • AppSecret:密钥,点击生成后赶紧复制,刷新页面就没了
  • Token:在 Token 管理里生成,格式通常是 AppID:AppSecret

把这三个东西粘到记事本里,等会儿要用。

Step 3:配置 IP 白名单和沙箱

在"安全配置"里添加你的服务器公网 IP,这是为了防止别人盗用你的机器人。然后在"沙箱测试"里添加你的个人 QQ 号,只有这个号能在测试阶段跟机器人聊天。

Step 4:OpenClaw 端配置

回到服务器,安装 QQ 官方插件并配置:

安装 QQ 官方插件

openclaw plugins install qqbot 

配置凭证(把引号里的内容换成你的)

openclaw config set channels.qq.enabled true openclaw config set channels.qq.appId "你的AppID" openclaw config set channels.qq.appSecret "你的AppSecret" openclaw config set channels.qq.token "你的Token" openclaw config set channels.qq.sandbox true# 沙箱模式,测试完改 false openclaw config set channels.qq.allowPrivateChat true

重启服务

openclaw gateway restart 

Step 5:测试

打开手机 QQ,搜索你的机器人名字,添加好友后发消息"你好",如果收到回复,恭喜你,对接成功了!

四、方案 B:个人 QQ 号接入(更实用)

官方 Bot 虽然正规,但限制太多。如果你想在普通 QQ 群里@机器人使用,或者让机器人帮你管理群,就得用个人号方案。这里我们用到 NapCat,它是目前最稳定的 QQ 协议库之一。

Step 1:部署 NapCat

NapCat 可以理解为 QQ 的"外挂",它模拟 QQ 客户端登录,然后提供一个 HTTP/WebSocket 接口给 OpenClaw 调用。用 Docker 部署最简单:

运行 NapCat 容器(把 123456789 换成你的 QQ 号)

docker run -d\--name napcat \--restart=always \-p3001:3001 \-p6099:6099 \ mlikiowa/napcat-docker:latest \QQ=123456789

第一次运行会生成二维码,用 QQ 手机版扫码登录。登录成功后,这个 QQ 号就处于"机器人模式"了。

Step 2:查看 NapCat 连接信息

查看容器 IP(OpenClaw 需要连这个地址)

docker inspect -f'{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' napcat 

通常会输出类似 172.17.0.3 的地址,记住它。

Step 3:OpenClaw 配置个人号通道

安装个人号适配插件

openclaw plugins install qq-personal-bot 

配置连接信息(IP 填上一步查到的)

openclaw config set channels.qq-personal.enabled true openclaw config set channels.qq-personal.host "172.17.0.3" openclaw config set channels.qq-personal.port 3001 openclaw config set channels.qq-personal.allowPrivateChat true openclaw config set channels.qq-personal.allowGroupAt true# 允许群聊@

重启

openclaw gateway restart 

Step 4:群聊测试

把登录了 NapCat 的 QQ 号拉进一个群,@它说"帮我总结今天的群聊消息",如果它开始干活,说明整套流程跑通了。

五、避坑指南:我踩过的坑你千万别踩

  1. 凭证别泄露
    AppSecret 和 Token 一旦泄露,别人就能控制你的机器人。千万别为了截图好看,把完整的密钥发到技术群里,打码也要打厚一点。
  2. IP 白名单要随时更新
    如果你用的是家庭宽带,公网 IP 可能会变。哪天发现机器人突然不回消息了,先检查 IP 白名单是不是过时了。
  3. NapCat 登录失效
    QQ 现在风控很严,如果 NapCat 提示登录失效,可能需要重新扫码。建议专门注册一个小号来做机器人,别用自己大号。
  4. 内存不够会暴毙
    OpenClaw 本身不占内存,但如果你接的是本地大模型(比如 Llama 3 70B),16G 内存都能给你吃光。建议云服务器至少选 4G 内存,本地开发的话用 API 调用云端模型更稳妥。
  5. 沙箱模式别忘了关
    官方 Bot 测试阶段要开沙箱,正式上线后记得改成 sandbox: false,否则只有你自己能看到机器人,别人搜不到。

六、进阶玩法:让机器人真正"智能"起来

对接成功只是开始,想让机器人变得有用,还得给它装"技能"。OpenClaw 有个技能市场叫 ClawHub,可以一键安装各种插件:

安装网页抓取技能

clawhub install web-scraper 

安装文件管理技能

clawhub install file-manager 

安装日历提醒技能

clawhub install calendar-manager 

装完后,你就可以在 QQ 里直接发指令:

  • “@机器人 抓取知乎热榜前 10 条,整理成表格发给我”
  • “明天下午 3 点提醒我开会”
  • “把刚才发的 PDF 转成 Word 文档”

这些技能都是开源的,会编程的还可以自己写插件,用 JavaScript 或 Python 都行,文档在 GitHub 上很全。

结语

现在你已经拥有了一个 24 小时在线的 QQ AI 助手。不管是让它帮你监控网站数据、自动回复客户咨询,还是单纯在群里装X,这套方案都足够稳定和省心了。

记住,技术本身不难,难的是动手去做。跟着这篇教程一步步来,有坑我也已经帮你填平了。如果过程中遇到问题,多看看日志(openclaw logs 命令),大部分错误信息都写得很明白。

最后提醒一句:玩机器人可以,但别拿去做骚扰别人、批量发广告这类讨打的事。技术无罪,但用技术的人要有底线。祝你的 OpenClaw 之旅愉快!

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

在这里插入图片描述

Read more

【笔记】Nginx 核心操作 + 配置解析笔记(适配 Linux+FastAPI / 前端代理场景)

一、Nginx 核心目录(Linux 标准路径) 目录 / 文件路径作用常用操作/etc/nginx/Nginx 主配置根目录存放所有配置文件,核心目录/etc/nginx/nginx.conf全局主配置文件配置性能、日志、gzip 等全局规则/etc/nginx/conf.d/业务配置目录存放前端部署、接口代理等业务配置(如你的 fastapi-frontend.conf)/etc/nginx/mime.types文件类型识别配置默认识别图片 / JS/CSS 等,无需修改/var/log/nginx/日志目录access.log(访问日志)、error.log(错误日志),排查问题必备/var/run/nginx.pid进程

Web 后端开发入门指南(基于 Spring Boot + JPA + RESTful API)

Web 后端开发入门指南(基于 Spring Boot + JPA + RESTful API) 这份指南面向 Web 后端开发初学者,以 Spring Boot 为核心框架,结合 JPA 实现数据持久化、RESTful 规范设计接口,从核心概念到实战落地全面覆盖,兼顾通用性和易理解性,可作为入门学习和日常开发的参考手册。 目录 Web 后端开发入门指南(基于 Spring Boot + JPA + RESTful API) 1. 什么是 Web 后端开发 核心工作场景 后端与前端的核心区别 2. 核心技术栈解析 3. 标准化项目结构 核心分层职责 4. RESTful API 设计规范 4.1 路径设计

Go语言中的未来:从泛型到WebAssembly

Go语言中的未来:从泛型到WebAssembly 前言 作为一个在小厂挣扎的Go后端老兵,我对Go语言未来的理解就一句话:能进化的绝不固步自封。 想当年刚接触Go语言时,它还没有泛型,没有模块系统,甚至连错误处理都被人诟病。现在的Go语言已经今非昔比,泛型来了,模块系统完善了,错误处理也有了更多选择。 今天就聊聊Go语言的未来发展,从泛型到WebAssembly,给大家一个能直接抄作业的方案。 为什么需要关注Go语言的未来? 我见过不少小团队,只关注当前的技术,不关心语言的发展趋势,结果技术栈逐渐落后。关注Go语言的未来能带来很多好处: * 提前准备:了解未来的特性,提前调整代码结构 * 技术选型:根据未来趋势,做出更合理的技术选型 * 职业发展:掌握最新技术,提升个人竞争力 * 项目规划:根据语言发展,制定更合理的项目规划 泛型 泛型是Go 1.18引入的重要特性,它能让我们编写更加通用的代码。 基本用法 // 定义泛型函数 func Map[T, U any](s []T, f

从部署到应用|Qwen3-VL-WEBUI全链路使用指南

从部署到应用|Qwen3-VL-WEBUI全链路使用指南 在多模态AI快速演进的今天,开发者面临的最大挑战不再是“有没有能力”,而是“能不能用得起来”。一个模型参数再大、功能再强,如果需要复杂的环境配置、昂贵的GPU资源和漫长的调试流程,那它对大多数团队而言依然是空中楼阁。 而 Qwen3-VL-WEBUI 的出现,正在彻底改变这一现状。作为阿里开源的视觉-语言模型集成平台,它内置了最新一代 Qwen3-VL-4B-Instruct 模型,提供开箱即用的网页交互界面,真正实现了“一键启动、无需下载、即点即用”的极简体验。 本文将带你完整走通从镜像部署、服务启动、网页访问到实际应用的全链路流程,深入解析其核心能力与工程实践要点,助你快速上手并落地真实场景。 为什么选择 Qwen3-VL-WEBUI? 传统多模态模型部署往往面临三大痛点: 1. 依赖复杂:需手动安装 PyTorch、Transformers、Vision Encoder 等数十个库; 2. 显存要求高:多数 VLM 模型至少需要 24GB 显存,普通设备无法运行;