微信终于开放官方 Bot API!ClawBot 插件深度解析,AI 开发者的新机遇

微信终于开放官方 Bot API!ClawBot 插件深度解析,AI 开发者的新机遇
神经网络动画结尾
神经网络动画结尾
神经网络动画结尾

⚡⚡⚡ 欢迎预览,批评指正⚡⚡⚡


文章目录



2026 年 3 月 22 日,腾讯微信正式发布 ClawBot 官方插件,通过 iLink 协议开放了个人微信的 Bot API。本文深度解析技术细节,带你抓住这波 AI 开发新机遇。


导读:2026 年 3 月 22 日,腾讯微信正式发布 ClawBot 官方插件,通过 iLink 协议开放了个人微信的 Bot API。这不是灰色地带的 Hook,而是有法律文件背书的官方产品。本文将深度解析技术细节,带你抓住这波 AI 开发新机遇。

一、历史性时刻:微信开放官方 Bot API

发布时间:2026 年 3 月 22 日

插件版本:@tencent-weixin/openclaw-weixin v1.0.2

接入平台:OpenClaw(原 Clawdbot)AI 网关框架

就在今天,微信插件页面悄然上线了 ClawBot 官方插件。这意味着什么?

这是微信首次向个人用户开放合法的 Bot API,开发者可以通过官方渠道,让 AI 助手直接接入微信个人号,实现私聊对话、群聊互动、文件收发等完整功能。

二、插件概况:什么是 ClawBot?

2.1 官方定位

ClawBot 是腾讯微信官方推出的 AI 助手连接插件,底层基于 iLink(智联)协议,接入域名为 ilinkai.weixin.qq.com

维度旧方案(WeChatPadPro 等)iLink Bot API
合法性违反微信服务协议,灰色地带✅ 官方开放,合法合规
稳定性每次微信更新可能失效✅ 服务器端 API,稳定可靠
封号风险极高,随时可能被封✅ 正常使用无封号风险
协议层模拟 iPad/移动端协议✅ HTTP/JSON,标准接口
媒体支持有限✅ 图片/语音/文件/视频完整支持
群聊需要特殊处理✅ 原生支持

2.2 核心能力

  • 私聊对话:微信用户与 OpenClaw 机器人一对一交流
  • 流式输出:AI 回复内容实时流式传输
  • 长连接模式:基于长轮询的消息推送机制
  • 多媒体支持:文本、图片、语音、文件、视频
  • Skills 调用:可调用 OpenClaw 技能市场的兼容技能
  • 群聊互通:支持微信群聊场景(需配置)

3.1 协议概览

腾讯开放的接口全部在 https://ilinkai.weixin.qq.com 下,采用 HTTP/JSON 协议,无需 SDK,可直接用 fetch 调用。

核心端点

EndpointMethod功能
/ilink/bot/get_bot_qrcodeGET获取登录二维码
/ilink/bot/get_qrcode_statusGET轮询扫码状态
/ilink/bot/getupdatesPOST长轮询收消息(核心)
/ilink/bot/sendmessagePOST发送消息
/ilink/bot/getuploadurlPOST获取 CDN 预签名上传地址
/ilink/bot/sendtypingPOST发送"正在输入"状态

3.2 认证机制

请求头固定格式:

{"Content-Type":"application/json","AuthorizationType":"ilink_bot_token","X-WECHAT-UIN":"base64(randomUint32)","Authorization":"Bearer <bot_token>"}

关键设计X-WECHAT-UIN 每次请求都变化,起到防重放攻击的作用。

3.3 长轮询机制

与 Telegram Bot API 的 getUpdates 设计类似:

POST/ilink/bot/getupdates {"get_updates_buf":"<上次返回的游标,首次为空>","base_info":{"channel_version":"1.0.2"}}

服务器会 hold 住连接最多 35 秒,直到有新消息才返回。

3.4 消息结构

每条微信消息的核心字段:

{"from_user_id":"[email protected]","to_user_id":"[email protected]","message_type":1,"context_token":"AARzJWAFAAABAAAAAAAp...","item_list":[{"type":1,"text_item":{"text":"你好"}}]}

ID 格式规律

消息类型

type含义
1文本
2图片(CDN 加密存储)
3语音(silk 编码,附带转文字)
4文件附件
5视频

3.5 回复机制(关键!)

最容易踩坑的地方:每条收到的消息都带有 context_token,回复时必须原样带上,否则消息不会关联到正确的对话窗口。

POST/ilink/bot/sendmessage {"msg":{"to_user_id":"[email protected]","message_type":2,"message_state":2,"context_token":"<从 inbound 消息里取>","item_list":[{"type":1,"text_item":{"text":"你好!"}}]}}

3.6 CDN 媒体加密

微信 CDN 上的所有媒体文件都经过 AES-128-ECB 加密


四、启用插件:5 分钟快速上手

4.1 前置条件

  • 微信版本:iOS 8.0.70 及以上(Android 同理,最新版本)
  • OpenClaw:已部署并运行 OpenClaw 实例

4.2 操作步骤

第一步:更新微信到最新版本

第二步:微信 → 我 → 设置 → 插件 → 找到「ClawBot」卡片

第三步:在 OpenClaw 所在设备执行:

npx -y @tencent-weixin/openclaw-weixin-cli@latest install

第四步:微信扫码绑定

第五步:验证连接成功


五、实战演示:15 分钟搭建 AI 助手

配合 Anthropic 的 @anthropic-ai/claude-agent-sdk,可以在 15 分钟内搭出一个有实际能力的 AI 助手。

实测效果

  • 用户发:「告诉我现在我是什么电脑,什么电量」
  • AI 调用系统命令,回复完整的机型 + 电量信息

六、法律条款:开发者必读

腾讯发布了 《微信 ClawBot 功能使用条款》

6.1 服务定位

“我们仅提供微信 ClawBot 插件与第三方 AI 服务的信息收发,不存储你的输入内容与输出结果,不提供 AI 相关服务。”

解读:iLink 只是消息通道,AI 服务由开发者自己负责。

6.2 签订信息

  • 签订地:深圳市南山区
  • 适用法律:中国大陆地区法律
  • 性质:官方产品,有法律文件背书

七、应用场景

  • 个人助手:日程管理、待办记录、信息查询
  • 客服机器人:自动回复、工单流转
  • 社群运营:群消息回复、新人欢迎语
  • 企业集成:知识库问答、审批通知

八、未来展望

  • 📈 逐步放量:目前插件仍处于灰度测试阶段
  • 🔗 QQ 已先行:QQ 机器人已接入 OpenClaw
  • 🌐 多渠道支持:已支持飞书、钉钉、Telegram、Discord

九、参考资料

资源链接
OpenClaw 官方文档https://docs.openclaw.ai
GitHub - openclaw-weixinhttps://github.com/hao-ji-xing/openclaw-weixin
菜鸟教程https://www.runoob.com/ai-agent/openclaw-weixin.html

结语

微信开放官方 Bot API,不是终点,而是起点。对于 AI 开发者而言,抓住这波机遇,用技术创造价值,才是最重要的。

你准备好"养虾"了吗? 🦞

本文基于公开资料整理,截止 2026 年 3 月 22 日。API 设计可能随版本迭代变化,请以官方文档为准。


感谢阅读,下期更精彩 👋👋👋

神经网络动画结尾

Read more

什么是MalformedStreamException,和WebKitFormBoundary有什么关系

org.apache.tomcat.util.http.fileupload.MultipartStream$MalformedStreamException https://stackoverflow.org.cn/questions/53500627  总结: MalformedStreamException是因为没读取到上传文件请求体的末尾分隔符,上传文件使用的是multipart/form-data格式,对分隔符有要求 关联问题: * MalformedStreamException报错的原因 * 什么是:multipart/form-data 的边界(boundary) * multipart/form-data 的内容格式一般是什么样子 * 这个和WebKitFormBoundary 有关系吗,为什么有些分隔符是-----------------------------149742642616556 这个错误是什么? org.apache.tomcat.util.http.fileupload.MultipartStream$Malform

pywebview:用Python+Web技术打造轻量级桌面应用!

pywebview:用Python+Web技术打造轻量级桌面应用!

✍️作者:唐叔在学习 💡专栏:唐叔学python ✨关键词:Python桌面开发、pywebview教程、WebView应用、前后端分离、JS与Python交互、桌面应用打包、Electron替代方案、Python GUI 大家好,我是唐叔。今天我们来聊聊一个非常轻量且强大的Python库——pywebview。如果你曾经为开发一个简单的桌面应用而纠结于Electron的笨重、PyQt的复杂,或是Tkinter的界面简陋,那pywebview或许正是你一直在找的解决方案。 文章目录 * 一、介绍 * 二、安装 * 安装全量版本 * 安装指定环境版本 * 三、使用入门 * 3.1 基本使用 * 3.2 应用程序架构 * 纯网络服务架构 * 无服务器架构 * 3.3 JS与Python交互 * 四、应用打包 * 五、常见使用场景 * 5.1 文件操作 * 文件下载

UniApp + Dify 实战:详解 SSE 流式响应的解析与前端渲染

UniApp + Dify 实战:详解 SSE 流式响应的解析与前端渲染

1. 理解核心机制:拼接而非替换 Dify 的 streaming 模式下,服务器会不断推送形如 data: {"event": "message", "answer": "字"} 的数据包。 核心逻辑是: 收到一个包,解析出 answer 字段,将其**追加(Append)**到当前正在显示的对话变量后,而不是直接替换。 2. 关键数据解析逻辑 Dify 返回的数据流格式如下: data: {"event": "message", "answer": "我", ...}\n\

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置)

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置) 如果你在本地运行大模型,比如用Ollama部署了Qwen、Llama或者DeepSeek,可能会发现一个尴尬的问题:模型的知识截止日期是固定的,它不知道今天股市涨跌,不清楚最新的科技新闻,甚至不知道明天是什么节日。这种“信息孤岛”的感觉,让本地大模型的实用性大打折扣。 我最初搭建OpenWebUI环境时,也遇到了这个痛点。看着模型一本正经地分析过时的数据,那种无力感让我开始寻找解决方案。市面上有不少联网搜索方案,但要么配置复杂,要么对国内网络环境不友好。经过几周的折腾和测试,我发现SearXNG这个开源元搜索引擎,配合OpenWebUI的联网搜索功能,是目前最稳定、最灵活的方案之一。 更重要的是,通过合理配置SearXNG,我们可以让本地大模型直接调用百度、360等国内搜索引擎,获取符合中文用户习惯的实时信息。这不仅仅是技术上的连接,更是让本地AI真正“接地气”的关键一步。下面我就把自己踩过的坑、验证过的配置,以及实际效果对比,毫无保留地分享给你。 1. 为什么需要SearXN