喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

喂饭级教程:OpenClaw 对接 QQ 机器人,本地/腾讯云都能用

文章目录

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

前言

还记得以前玩 QQ 机器人吗?那时候得写一堆乱七八糟的代码,还得防着被系统检测,搞得跟做贼似的。现在好了,OpenClaw 这个开源神器直接把门槛砍到了脚底板——你只需要会复制粘贴,就能让 AI 住进你的 QQ,帮你回消息、抓数据、写周报,甚至帮你打游戏挂机。

OpenClaw 这玩意儿前身叫 Clawdbot,后来又改名叫 Moltbot,现在终于定下来叫 OpenClaw 了。名字变来变去,但核心逻辑没变:它是一个本地优先的 AI 自动化平台,说人话就是"让 AI 帮你干杂活"的工具。今天这篇教程,我就手把手教你把它对接进 QQ,不管是本地笔记本还是腾讯云服务器,都能跑起来。

一、选对路子:官方 Bot 还是个人号?

在动手之前,你得先想清楚要走哪条路。OpenClaw 对接 QQ 目前有两套方案:

方案 A:QQ 开放平台官方机器人

这是正规军路线。你去 QQ 开放平台注册个开发者账号,创建一个机器人,拿到 AppID、AppSecret、Token 这三件套,然后配置到 OpenClaw 里。好处是稳定、合法合规,坏处是只能单聊和频道,不能直接在普通 QQ 群里玩(除非申请特殊权限)。

方案 B:个人 QQ 号变身机器人

这是野路子,也是目前更实用的方案。通过 NapCat(以前叫 go-cqhttp,但那项目已经凉了)这类第三方框架,把你的个人 QQ 号改造成机器人,然后对接 OpenClaw。好处是可以在普通 QQ 群里@你使用,体验更自然;坏处是……好吧,其实没什么坏处,只要你别拿去做违法乱纪的事。

我建议大家两手准备:先用官方 Bot 练手,熟悉了再部署个人号方案。下面我会把两种方法都讲透。

二、环境准备:5 分钟搞定基础设施

不管你选哪种方案,都需要先准备好 OpenClaw 的运行环境。

1. 服务器/电脑要求

  • 本地部署:Windows 10/11 或 macOS,内存 8G 以上,最好有独立显卡(跑大模型用)
  • 腾讯云部署:轻量应用服务器 2核4G 起步,系统选 Ubuntu 22.04 或 CentOS 8

2. 安装 OpenClaw

如果你用腾讯云,阿里云那边已经有现成的镜像,一键部署就行。如果是本地或者别的云厂商,用 Docker 最省事:

拉取最新镜像(2026年2月版本)

docker pull openclaw/openclaw:latest 

运行容器

docker run -d\--name openclaw \-p18789:18789 \-v ~/.openclaw:/root/.openclaw \ openclaw/openclaw:latest 

安装完成后,浏览器访问 http://你的IP:18789,能看到控制台就说明成了。

3. 配置大模型 API

OpenClaw 本身不带大脑,需要接个大模型。推荐用阿里云百炼,新用户送 7000 万 tokens,够你玩几个月了。拿到 API Key 后,配置文件里填一下:

进入配置目录

cd ~/.openclaw 

编辑配置文件

cat > openclaw.json <<'EOF'{"models":{"providers":{"bailian":{"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1","apiKey":"sk-你的APIKey","models":[{"id":"qwen3-max-2026-01-23","name":"通义千问3","reasoning":false}]}}}}EOF

注意:reasoning 一定要设成 false,否则百炼模型返回的内容会是空的,这是个坑,我已经帮你踩过了。

三、方案 A:对接 QQ 开放平台官方机器人

这个方案适合想正儿八经做个服务的朋友,比如给公司做个内部问答助手。

Step 1:注册开发者并创建机器人

  1. 访问 QQ 开放平台 https://q.qq.com,用邮箱注册账号(注意:不能直接用 QQ 号登录,必须重新注册)
  2. 完成实名认证(个人用户传身份证,1-2 个工作日审核)
  3. 点击"创建机器人",填个名字比如"OpenClaw 小助手",能力勾选"消息接收与发送"

Step 2:获取三件套凭证

进入机器人管理页面,在"开发管理"里找到:

  • AppID:机器人 ID,一长串数字
  • AppSecret:密钥,点击生成后赶紧复制,刷新页面就没了
  • Token:在 Token 管理里生成,格式通常是 AppID:AppSecret

把这三个东西粘到记事本里,等会儿要用。

Step 3:配置 IP 白名单和沙箱

在"安全配置"里添加你的服务器公网 IP,这是为了防止别人盗用你的机器人。然后在"沙箱测试"里添加你的个人 QQ 号,只有这个号能在测试阶段跟机器人聊天。

Step 4:OpenClaw 端配置

回到服务器,安装 QQ 官方插件并配置:

安装 QQ 官方插件

openclaw plugins install qqbot 

配置凭证(把引号里的内容换成你的)

openclaw config set channels.qq.enabled true openclaw config set channels.qq.appId "你的AppID" openclaw config set channels.qq.appSecret "你的AppSecret" openclaw config set channels.qq.token "你的Token" openclaw config set channels.qq.sandbox true# 沙箱模式,测试完改 false openclaw config set channels.qq.allowPrivateChat true

重启服务

openclaw gateway restart 

Step 5:测试

打开手机 QQ,搜索你的机器人名字,添加好友后发消息"你好",如果收到回复,恭喜你,对接成功了!

四、方案 B:个人 QQ 号接入(更实用)

官方 Bot 虽然正规,但限制太多。如果你想在普通 QQ 群里@机器人使用,或者让机器人帮你管理群,就得用个人号方案。这里我们用到 NapCat,它是目前最稳定的 QQ 协议库之一。

Step 1:部署 NapCat

NapCat 可以理解为 QQ 的"外挂",它模拟 QQ 客户端登录,然后提供一个 HTTP/WebSocket 接口给 OpenClaw 调用。用 Docker 部署最简单:

运行 NapCat 容器(把 123456789 换成你的 QQ 号)

docker run -d\--name napcat \--restart=always \-p3001:3001 \-p6099:6099 \ mlikiowa/napcat-docker:latest \QQ=123456789

第一次运行会生成二维码,用 QQ 手机版扫码登录。登录成功后,这个 QQ 号就处于"机器人模式"了。

Step 2:查看 NapCat 连接信息

查看容器 IP(OpenClaw 需要连这个地址)

docker inspect -f'{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' napcat 

通常会输出类似 172.17.0.3 的地址,记住它。

Step 3:OpenClaw 配置个人号通道

安装个人号适配插件

openclaw plugins install qq-personal-bot 

配置连接信息(IP 填上一步查到的)

openclaw config set channels.qq-personal.enabled true openclaw config set channels.qq-personal.host "172.17.0.3" openclaw config set channels.qq-personal.port 3001 openclaw config set channels.qq-personal.allowPrivateChat true openclaw config set channels.qq-personal.allowGroupAt true# 允许群聊@

重启

openclaw gateway restart 

Step 4:群聊测试

把登录了 NapCat 的 QQ 号拉进一个群,@它说"帮我总结今天的群聊消息",如果它开始干活,说明整套流程跑通了。

五、避坑指南:我踩过的坑你千万别踩

  1. 凭证别泄露
    AppSecret 和 Token 一旦泄露,别人就能控制你的机器人。千万别为了截图好看,把完整的密钥发到技术群里,打码也要打厚一点。
  2. IP 白名单要随时更新
    如果你用的是家庭宽带,公网 IP 可能会变。哪天发现机器人突然不回消息了,先检查 IP 白名单是不是过时了。
  3. NapCat 登录失效
    QQ 现在风控很严,如果 NapCat 提示登录失效,可能需要重新扫码。建议专门注册一个小号来做机器人,别用自己大号。
  4. 内存不够会暴毙
    OpenClaw 本身不占内存,但如果你接的是本地大模型(比如 Llama 3 70B),16G 内存都能给你吃光。建议云服务器至少选 4G 内存,本地开发的话用 API 调用云端模型更稳妥。
  5. 沙箱模式别忘了关
    官方 Bot 测试阶段要开沙箱,正式上线后记得改成 sandbox: false,否则只有你自己能看到机器人,别人搜不到。

六、进阶玩法:让机器人真正"智能"起来

对接成功只是开始,想让机器人变得有用,还得给它装"技能"。OpenClaw 有个技能市场叫 ClawHub,可以一键安装各种插件:

安装网页抓取技能

clawhub install web-scraper 

安装文件管理技能

clawhub install file-manager 

安装日历提醒技能

clawhub install calendar-manager 

装完后,你就可以在 QQ 里直接发指令:

  • “@机器人 抓取知乎热榜前 10 条,整理成表格发给我”
  • “明天下午 3 点提醒我开会”
  • “把刚才发的 PDF 转成 Word 文档”

这些技能都是开源的,会编程的还可以自己写插件,用 JavaScript 或 Python 都行,文档在 GitHub 上很全。

结语

现在你已经拥有了一个 24 小时在线的 QQ AI 助手。不管是让它帮你监控网站数据、自动回复客户咨询,还是单纯在群里装X,这套方案都足够稳定和省心了。

记住,技术本身不难,难的是动手去做。跟着这篇教程一步步来,有坑我也已经帮你填平了。如果过程中遇到问题,多看看日志(openclaw logs 命令),大部分错误信息都写得很明白。

最后提醒一句:玩机器人可以,但别拿去做骚扰别人、批量发广告这类讨打的事。技术无罪,但用技术的人要有底线。祝你的 OpenClaw 之旅愉快!

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

在这里插入图片描述

Read more

Copilot “Plan Mode“ + 多模型协同实战:让复杂项目开发丝滑起飞

在 AI 辅助编程普及的今天,我们似乎习惯了“Tab 键一路狂飙”的快感。但在面对大型存量项目(Legacy Code)时,这种快感往往会变成惊吓——AI 生成的代码看似完美,实则破坏了原有的架构逻辑,或者引入了难以排查的幻觉(Hallucinations)。 作为一名后端开发者,我在工具链的探索上走了不少弯路。从 Spec Kit 到 Gemini Conductor,再到如今的 GitHub Copilot Plan Mode,我终于找到了一套适合 复杂业务架构 的“最佳实践”。 今天想和大家分享这套 “Plan + Implement” 模式 配合 “多模型路由” 的打法,它让我的开发体验发生了质变。 一、 引言:寻找大型复杂项目的“银弹” 在探索 AI 编程工具的过程中,我经历了三个阶段的心态变化:

Stable-Diffusion-3.5广告设计应用:创意海报生成系统部署实战

Stable-Diffusion-3.5广告设计应用:创意海报生成系统部署实战 1. 引言:当广告设计遇上AI 想象一下,一个电商团队需要在半小时内为50款新品生成社交媒体海报,或者一个营销部门在深夜突然需要一套全新的活动视觉方案。传统设计流程下,这几乎是不可能完成的任务。但现在,情况完全不同了。 Stable Diffusion 3.5(简称SD 3.5)的出现,正在彻底改变创意内容的生产方式。作为Stability AI推出的新一代文本到图像模型,SD 3.5不仅在图像质量上有了显著提升,更重要的是,它在理解复杂语义和渲染文字方面表现更出色——这对于需要精准传达信息的广告设计来说,简直是量身定做。 而今天我们要实战部署的 Stable-Diffusion-3.5-FP8镜像,更是将这种能力推向了新的高度。它通过量化技术,在保持高质量图像输出的同时,大幅提升了生成速度并降低了硬件要求。这意味着,即使你没有顶级的显卡,也能流畅地运行这个强大的创意工具。 本文将带你从零开始,一步步部署这个创意海报生成系统,并展示如何将它应用到实际的广告设计工作中。无论你是设计师、营销人员,还

新手必看!灵感画廊AI绘画保姆级教程:从安装到出图

新手必看!灵感画廊AI绘画保姆级教程:从安装到出图 你是否试过在深夜灵光乍现,想把脑海里那幅光影交错的画面立刻画出来,却卡在了软件安装、模型下载、参数调试的迷宫里?不是代码报错,就是显存爆炸,再或者生成的图和想象差了十万八千里——别急,这次我们不讲原理、不堆参数,就用最直白的方式,带你从零开始,在“灵感画廊”里真正完成一次安静而完整的创作。 这不是一个工业风的AI工具,它更像一间带天窗的老画室:宣纸色界面、手写感字体、留白恰到好处。你输入的不是冷冰冰的prompt,而是“梦境描述”;你排除的不是negative prompt,而是“尘杂规避”。它不催你快,但每一步都稳;不炫技,但细节经得起放大。本文全程基于真实操作记录,所有步骤已在Ubuntu 22.04 + RTX 4090环境验证通过,连第一次接触AI绘画的小白,也能在30分钟内生成第一张1024×1024的高清作品。 1. 准备工作:三样东西就够了 别被“Stable Diffusion

Windows老电脑也能跑AI?手把手教你用llama.cpp部署7B模型(含中文优化)

让旧电脑“听懂”人话:在Windows上亲手部署轻量级AI大模型的实战指南 手边那台用了五六年的Windows笔记本,是不是总觉得跑个大型软件都开始吃力了?更别提现在动辄需要数张高端显卡的AI大模型了。但如果你告诉我,就在这台老伙计上,我们能跑起来一个能理解你指令、甚至能和你聊上几句的智能模型,你会不会觉得是天方夜谭?这恰恰是llama.cpp这个项目带来的魔力。它不依赖昂贵的GPU,仅凭CPU和不算宽裕的内存,就能让大型语言模型在本地“安家落户”。今天,我们不谈高深的理论,就从一个开发者的实操视角出发,带你一步步在Windows老电脑上,搭建一个属于你自己的、经过中文优化的智能对话伙伴。整个过程,就像组装一台乐高模型,工具备齐,按图索骥,惊喜就在终点等你。 1. 启程之前:理解llama.cpp与你的硬件“底牌” 在动手敲下第一行命令之前,我们得先搞清楚两件事:我们要用的工具llama.cpp究竟是何方神圣,以及我们手头的硬件“底牌”能支持我们走多远。这能帮你建立合理的预期,避免过程中因性能落差而产生的挫败感。 llama.cpp本质上是一个用C++编写的推理引擎。它的核心