用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

1.OpenClaw对接QQ(qq账号当机器人使用)

在任意文件夹创建项目文件夹napcat及需要的文件夹,并创建docker-compose.yml

mkdir -p napcat && cd napcat
mkdir -p config .config logs

docker-compose.yml内容参考

services: napcat: image: mlikiowa/napcat-docker:latest container_name: napcat restart: unless-stopped environment: - NAPCAT_UID=${NAPCAT_UID:-1000} - NAPCAT_GID=${NAPCAT_GID:-1000} - MESSAGE_POST_FORMAT=string # 网络服务(根据需求启用) - HTTP_ENABLE=true - HTTP_HOST=0.0.0.0 - HTTP_PORT=3000 - WS_ENABLE=true - WS_HOST=0.0.0.0 - WS_PORT=3001 ports: - "3000:3000" - "3001:3001" - "6099:6099" volumes: # 1. NapCat 配置(网络设置、WebUI token) - ./config:/app/napcat/config # 2. QQ 数据(登录凭证、持久化登录状态) # 官方路径是 /app/.config/QQ, - ./.config:/app/.config/QQ # 3. 日志(可选) - ./logs:/app/napcat/logs # 注意:没有 network_mode: bridge,与 ports 冲突 stdin_open: true tty: true

启动docker,并执行以下命令

NAPCAT_UID=$(id -u) NAPCAT_GID=$(id -g) docker-compose up -d
命令拆解含义
NAPCAT_UID=$(id -u)设置环境变量 NAPCAT_UID 为当前用户的用户 ID
NAPCAT_GID=$(id -g)设置环境变量 NAPCAT_GID 为当前用户的组 ID
docker-compose up -d在后台启动 Docker Compose 服务

因为NapCat 容器内以 NAPCAT_UID 用户运行,需要与宿主机用户权限匹配,所以动态获取当前用户 ID,环境变量传递给 Docker Compose

启动完成

执行docker-compose logs -f,手机qq扫描登录日志的二维码登录

也可以根据日志的token打开http://127.0.0.1:6099/webui?token=你的token,输入账号和密码

如果提示需要验证码,暂时不支持的话就扫码登录,登录后只要日志没有显示离线就可以退出手机qq

点击网络配置,添加http server(可选)和websocket server

复制websocket server的token

两个插件选一个即可,建议用openclaw_qq,因为目前@izhimu/qq插件似乎群里有人发消息就一定会回复且不支持/model等命令(可能要自己研究怎么配置或修改源码?),而openclaw_qq在群@机器人的名字或设置关键词触发

插件1(推荐):

在另一个终端执行cd ~/.openclaw/extensions && git clone https://github.com/constansino/openclaw_qq.git qq命令给openclaw安装插件,然后执行cd ~/.openclaw/extensions/qq && pnpm install 2>&1 | tail -20编译安装

插件2:

执行pnpm openclaw plugins install @izhimu/qq给openclaw安装插件,如果你的openclaw不是通过pnpm安装则去掉pnpm,下同

输入pnpm openclaw gateway restart重启,然后打开http://127.0.0.1:18789/channels,粘贴websocket的token,点击保存,过一会看到yes即成功连接

如果qq机器人回复出现Connection error(这里已经换成小号当QQ机器人,防止主号乱发消息被封),去用户目录的.opneclaw里,比如/Users/Zhuanz/.openclaw,打开openclaw.json,找到channels,再找qq,将enable改为true;如果还是这样,看看agents.defaults.model.primary是不是本地 ollama 模型且此时没启动ollama(注意在网页或tui输入/model等命令要在对应的qq聊天session执行才对qq机器人有效)

之后执行pnpm openclaw gateway restart或其他命令重启,测试效果,如果你的openclaw不是通过pnpm安装则去掉pnpm,下同

用@izhimu/qq插件的情况

已经成功回复,但如果是用@izhimu/qq插件不会对聊天中直接发/model等命令执行且给结果,只有让对话中强调执行这个命令才有效,但在openclaw_qq可以直接执行命令给结果(下图)

openclaw_qq配置参考

插件功能差异对比(原因:目前这个QQ 插件缺少 CommandAuthorized 参数)

插件finalizeInboundContext 参数命令支持
飞书包含 CommandAuthorized: commandAuthorized✅ 支持
QQ缺乏 CommandAuthorized 参数❌ 不支持

两个 QQ 插件功能对比

1)配置项对比

功能@izhimu/qqopenclaw_qq说明
wsUrlWebSocket 地址
accessToken访问令牌
enable启用开关
requireMention✅ 默认 true群聊需要 @ 才触发
keywordTriggers关键词唤醒
admins管理员列表
adminOnlyChat仅管理员可触发
allowedGroups群白名单
blockedUsers用户黑名单
systemPrompt自定义人设
historyLimit历史消息注入
autoApproveRequests自动通过好友 / 群邀请
enableTTS语音回复
enableGuildsQQ 频道支持
rateLimitMs✅ 默认 1000ms发送限速防风控
antiRiskModeURL 风控规避
maxMessageLength✅ 默认 4000消息分片
formatMarkdownMarkdown 转纯文本
showProcessingStatus群名片显示 "输入中"
sharedMediaHostDir跨容器媒体共享

2)核心功能差异

功能@izhimu/qqopenclaw_qq原因
群聊 @ 触发❌ 所有消息都回复✅ 默认仅 @ 触发新插件有 requireMention 配置
关键词唤醒✅ 如 "小助手"新插件有 keywordTriggers
管理员命令✅ /model, /status 等新插件实现了命令处理
/model 命令✅ 仅管理员新插件支持模型切换
群白名单新插件有 allowedGroups
用户黑名单新插件有 blockedUsers
风控优化✅ 限速、URL 规避新插件针对 QQ 风控设计
戳一戳响应新插件处理 poke 事件
自动通过请求新插件有 autoApproveRequests
消息去重新插件有 enableDeduplication
空回复兜底新插件有 enableEmptyReplyFallback

2.自定义域名发送邮件

打开https://resend.com/signup注,密码需要至少12位,注册完需去邮箱验证

打开邮箱进行验证

添加API key,并复制

查找能发邮件的skills(find-skills安装可见教程https://blog.ZEEKLOG.net/weixin_55221858/article/details/158179110

可执行npx skills add resend/resend-skills@send-email -g -y安装

测试成功,默认只能发注册resend账户的邮箱,要发送任意邮箱需添加域名

添加自己的域名,地区随便选,然后点击Add domain

点击允许接收,再点击添加记录

需要添加的全部记录清单

从这个界面可以看到需要添加以下记录:

类型主机记录(Name)记录值(Content)优先级用途
TXTresend._domainkeyp=MIGfMA0GCSqG[...]-DKIM 签名(必需)
MXsendfeedback-smtp.[...]amazonses.com10退信处理(必需)
TXTsendv=spf1 include[...]nses.com ~all-SPF 验证(必需)
TXT_dmarcv=DMARC1; p=none;-DMARC 策略(可选但强烈建议)
MX@inbound-smtp.e[...]amazonaws.com10接收邮件(可选,如果你不需要收邮件可以不填)

以阿里云为例

验证通过,由Pending变成Verified

成功接收邮件

参考教程:

1.https://blog.ZEEKLOG.net/qq_14956715/article/details/157942635

2.https://blog.ZEEKLOG.net/m0_60046831/article/details/157696672

3.https://napneko.github.io/

创作不易,禁止抄袭,转载请附上原文链接及标题

Read more

Stable Diffusion模型下载器中文版:零基础掌握AI绘画模型下载技巧

Stable Diffusion模型下载器中文版:零基础掌握AI绘画模型下载技巧 【免费下载链接】sd-webui-model-downloader-cn 项目地址: https://gitcode.com/gh_mirrors/sd/sd-webui-model-downloader-cn 还在为下载Stable Diffusion模型而烦恼吗?🤔 这个专为国内用户设计的模型下载器中文版,让你彻底告别复杂的网络配置,轻松获取高质量AI绘画模型!本文将带你从零开始,全面掌握这款强大工具的使用方法。 🚀 一键安装:三种方式任你选择 WebUI界面直接安装(最推荐) 打开你的Stable Diffusion WebUI,进入"Extensions"标签页,选择"Install from URL",输入仓库地址即可完成安装。这种方式最安全可靠,避免手动操作可能出现的错误。 手动下载安装 如果你习惯传统方式,可以下载整个仓库文件,解压后放入WebUI目录下的extensions文件夹中。记得重启WebUI才能生效哦! 命令行快速安装 对于技术爱好者,使用git命令安装是

Hunyuan-MT-7B-WEBUI vs 通用翻译工具,谁更强?

Hunyuan-MT-7B-WEBUI vs 通用翻译工具,谁更强? 你有没有过这样的经历: 复制一段英文技术文档到某翻译网站,点下“翻译”,结果出来的是“该模型正在思考人生”——或者更糟:语序混乱、术语错译、逻辑断裂。再试一次,换种说法,又翻出完全不同的意思。最后只好硬着头皮啃原文,边查词典边猜。 这不是你的问题,是大多数通用翻译工具在面对专业、严谨、结构复杂的文本时的真实表现。 而当你打开 Hunyuan-MT-7B-WEBUI 的网页界面,输入同样一段话,几秒后返回的译文——句式自然、术语统一、逻辑完整,甚至保留了原文的学术语气。更关键的是:它不联网、不上传、不记录,所有操作都在你自己的服务器上完成。 这不是理想化的宣传,而是我们实测中反复验证的结果。今天我们就抛开参数和榜单,用真实场景、真实文本、真实体验,来一场Hunyuan-MT-7B-WEBUI 与主流通用翻译工具的硬碰硬对比。 1. 翻译能力不是“能翻就行”,而是“翻得准、