微信终于官宣!OpenClaw(龙虾)正式接入,你的微信里多了一个AI管家

微信终于官宣!OpenClaw(龙虾)正式接入,你的微信里多了一个AI管家

就在昨天,微信放出了一个让科技圈沸腾的消息:微信正式推出「ClawBot」插件,支持接入开源AI智能体OpenClaw(俗称“龙虾”)

这意味着,你再也不需要冒着封号的风险使用非官方插件,现在可以直接在微信聊天界面里召唤你的“龙虾”替你干活了。

什么是“龙虾”?

首先科普一下,为什么大家管OpenClaw叫“龙虾”?因为它的图标是红色的,形似龙虾,所以被网友们亲切地称为“龙虾”。OpenClaw是一款实现“认知、执行、记忆”闭环的开源AI框架,简单来说,它能让AI真正“长出手脚”,自主执行文件管理、邮件收发、数据处理等复杂任务

而微信这次推出的ClawBot插件,就是帮你用微信连接个人龙虾的聊天入口——相当于你现在能跟你的“虾”成为微信好友了。

如何接入?

想要在微信里玩转龙虾,操作非常简单,只需两步:

第一步:启用微信ClawBot插件

  • 将微信更新到 v8.0.70或更高版本(目前iOS已发布正式版,安卓用户还需稍等)
  • 进入「我 → 设置 → 插件」,找到“微信ClawBot”并启用(插件正在逐步放量中,部分用户可能还需等待)

第二步:绑定OpenClaw账号

  • 在你已经安装OpenClaw的设备上,执行以下命令安装NPM插件:
npx -y @tencent-weixin/openclaw-weixin-cli@latest install
  • 插件安装完成后会自动弹出二维码,使用微信扫码完成授权连接即可

如果你使用的是腾讯云Lighthouse、WorkBuddy或QClaw等产品,也都有对应的扫码直连通道。

有哪些限制?官方划了重点

虽然微信这次罕见地为非腾讯项目开发了官方插件,但权限上依然非常谨慎。以下是你需要知道的几个关键限制:

1. 24小时消息保活机制
微信允许ClawBot接收24小时以内下发的消息。也就是说,如果用户超过24小时没有主动给ClawBot发消息,OpenClaw下发的消息会被自动丢弃。如果你配置了定时任务,记得至少每24小时主动发一条消息“保活”。

2. 无法加入群聊
龙虾以独立账号存在,无法加入任何微信群聊。你需要手动复制群消息供其分析,它也无法自动总结群内容、发送提醒。微信ClawBot仅支持个人单聊,其他用户也无法添加你的ClawBot。

3. 权限隔离
龙虾无权访问你的联系人列表、历史聊天记录,也不能主动向其他联系人发送消息,与微信社交关系网络完全隔离。微信官方强调,ClawBot插件仅作为消息通道,不会自动化操作你的微信

4. 功能限制
目前微信插件尚未支持可选快捷命令,像/model命令可能无法正常浏览模型提供商列表。另外,微信不支持图文混合输入,用户需先明确指令再发送媒体内容。

腾讯的“龙虾”野心

腾讯在“养龙虾”这件事上可谓动作迅速。根据官方信息,腾讯已经组建了一支“龙虾特工队”,包括:

  • 云端虾:腾讯轻量云Lighthouse
  • 自研虾:WorkBuddy
  • 本地虾:QClaw
  • 企业虾:腾讯云ADPxClaw
  • 云桌面虾:腾讯云桌面

腾讯公关总监张军在微博上发文称:“微信当年所努力的,就是成为一个连接人、连接设备、连接服务的工具。这个理念依然有效。这个连接,可以方便每个人更好地管理自己的龙虾。”

安全性提醒

值得注意的是,OpenClaw虽然火爆,但也存在安全风险。3月10日,国家互联网应急中心曾发布风险提示,指出OpenClaw默认安全配置“极为脆弱”,攻击者可轻易获取系统完全控制权。全球已有超过27万个OpenClaw实例因配置不当暴露在公网,部分用户遭遇API密钥被盗产生万元账单等问题。

因此,如果你打算“养虾”,请务必做好安全配置,不要将服务直接暴露在公网

写在最后

微信推出ClawBot插件,是微信首次正式加入“龙虾大战”,也是腾讯在AI智能体领域的又一次战略性落地。虽然目前功能还比较基础,但这意味着我们离“在微信里拥有一个私人AI助理”的愿景又近了一步。

你的微信能玩龙虾了吗?快去「我-设置-插件」看看吧!


参考资料:
1. 蓝点网:微信推出ClawBot插件支持OpenClaw接入(2026-03-22)
2. DoNews:微信正式接入龙虾AI(2026-03-22)
3. IT之家:微信iOS 8.0.70正式版更新(2026-03-22)
4. 智东西:微信掀桌!2步接入龙虾(2026-03-22)
7. 橙新聞:騰訊推出微信ClawBot插件(2026-03-22)
9. 澎湃新闻:微信推出官方龙虾插件(2026-03-22)

Read more

intv_ai_mk11GPU部署:24GB显存运行Llama中型模型的CUDA版本与驱动适配指南

intv_ai_mk11 GPU部署:24GB显存运行Llama中型模型的CUDA版本与驱动适配指南 1. 环境准备与系统要求 1.1 硬件配置要求 要在24GB显存的GPU上顺利运行intv_ai_mk11模型,您的设备需要满足以下最低配置: * GPU显存:最低24GB(推荐NVIDIA RTX 3090/4090或A100 40GB) * 系统内存:至少32GB RAM * 存储空间:50GB可用空间(用于模型权重和依赖项) * CPU:支持AVX指令集的现代多核处理器 1.2 软件环境要求 * 操作系统:Ubuntu 20.04/22.04 LTS(推荐)或CentOS 7+ * CUDA版本:11.7或11.8(与驱动版本匹配) * 驱动版本:515.65.

实体关系图谱构建:从零到一指南,云端Neo4j+GPU加速

实体关系图谱构建:从零到一指南,云端Neo4j+GPU加速 引言:为什么你需要云端Neo4j? 想象一下,你正在整理一个庞大的家族族谱,手写记录需要好几天,而用电子表格可能只需要几小时——这就是传统数据库与图数据库的区别。当你的知识图谱项目遇到性能瓶颈(比如单机处理全量数据要2天),云端Neo4j配合GPU加速能帮你把时间压缩到3小时,还能实时可视化展示复杂关系。 Neo4j是目前最流行的图数据库,特别擅长处理"谁认识谁""什么属于什么"这类关系密集型任务。本指南将带你从零开始: 1. 理解实体关系图谱的核心概念 2. 快速部署云端Neo4j环境 3. 用GPU加速数据处理 4. 生成可视化关系网络 即使你是刚接触知识图谱的小白,跟着步骤操作也能在1小时内完成首次图谱构建。 1. 环境准备:5分钟搞定云端部署 1.1 选择适合的镜像 在ZEEKLOG星图镜像广场搜索"Neo4j GPU",选择预装以下组件的镜像: - Neo4j 5.

多模态融合:结合RetinaFace+CurricularFace与语音识别构建智能交互系统

多模态融合:结合RetinaFace+CurricularFace与语音识别构建智能交互系统 你是否也遇到过这样的问题:团队想做一个能“看脸”又能“听声”的智能交互系统,比如门禁系统既能识别人脸又能验证声音,或者客服机器人能通过摄像头和麦克风同时感知用户情绪?听起来很酷,但真正动手时却发现——人脸模型和语音模型像是两个世界的东西,部署方式五花八门,环境依赖冲突不断,GPU资源调度混乱,最后集成起来像拼图一样费劲。 别担心,这正是我们今天要解决的问题。作为一名在AI领域摸爬滚打多年的技术老兵,我最近也在帮一个创新团队搭建类似的多模态系统。他们原本打算分别用两套服务器跑人脸识别和语音识别,结果不仅成本翻倍,数据同步还经常出错。后来我们换了个思路:用统一的AI镜像平台,把RetinaFace + CurricularFace 和语音识别模型一起部署到同一个GPU环境中,实现了“一次部署、多模态协同”。 这篇文章就是我实战经验的完整复盘。我会带你从零开始,一步步搭建这个融合视觉与听觉的智能交互系统。即使你是AI新手,只要跟着操作,也能在5分钟内完成核心功能的部署,并理解背后的运行逻辑。更

EpicDesigner低代码设计器完全配置指南

EpicDesigner低代码设计器完全配置指南 【免费下载链接】epic-designer 项目地址: https://gitcode.com/gh_mirrors/ep/epic-designer 你是否曾经为重复编写表单页面而感到厌倦?EpicDesigner正是为解决这一痛点而生的可视化低代码设计工具。作为基于Vue3开发的多UI组件库兼容设计器,它能够通过拖拽方式快速生成页面配置,显著提升开发效率。 为什么选择EpicDesigner 在当今快速迭代的开发环境中,EpicDesigner提供了三个核心价值:首先,它支持Element Plus、Ant Design Vue和Naive UI三套主流UI组件库,让团队可以根据现有技术栈灵活选择;其次,通过JSON配置生成页面的方式,实现了配置的可视化管理和版本控制;最后,强大的扩展机制允许开发者根据业务需求自定义组件和功能。 环境准备与基础配置 系统要求检查 开始之前,请确保你的开发环境满足以下要求: * Node.js版本14.x或更高 * 包管理器(npm、yarn或pnpm) * 现代浏览器支持(