# OpenClaw QQ 机器人接入完整指南

作者: 星期五助手
创建时间: 2026-03-05
适用版本: OpenClaw 2026.2.26+


📖 目录

  1. 项目概述
  2. 环境准备
  3. 安装 NapCat QQ 机器人
  4. 配置 OpenClaw QQ 插件
  5. 网络配置(关键)
  6. 测试与验证
  7. 常见问题

项目概述

本指南介绍如何将 OpenClaw 接入 QQ,实现通过 QQ 与 OpenClaw 智能助手对话。

架构说明

┌─────────────┐ ┌──────────────┐ ┌─────────────┐ │ QQ 用户 │ ──→ │ NapCat │ ──→ │ OpenClaw │ │ (发消息) │ │ (QQ 机器人) │ │ (星期五) │ └─────────────┘ └──────────────┘ └─────────────┘ ↓ (OneBot WebSocket) 

技术栈

  • NapCat: QQ 机器人框架(基于 OneBot v11 协议)
  • OpenClaw QQ 插件: OpenClaw 官方 QQ 频道插件
  • Docker: NapCat 容器化部署
  • Host 网络模式: 解决 WSL2 与 Docker 网络互通问题

环境准备

系统要求

  • ✅ Linux / WSL2 (Windows Subsystem for Linux)
  • ✅ Docker 20.10+
  • ✅ Docker Compose 2.0+
  • ✅ OpenClaw 2026.2.26+
  • ✅ Node.js 18+ (OpenClaw 运行环境)

检查环境

# 检查 Dockerdocker--versiondocker compose version # 检查 OpenClaw openclaw --version# 检查 Node.jsnode--version

安装 NapCat QQ 机器人

步骤 1: 创建部署目录

mkdir-p /home/gaof/.openclaw/extensions/qq/deploy/napcat cd /home/gaof/.openclaw/extensions/qq/deploy/napcat 

步骤 2: 创建 Docker Compose 配置

创建 docker-compose.yml

version:"3"services:napcat:environment:- NAPCAT_UID=${ NAPCAT_UID}- NAPCAT_GID=${ NAPCAT_GID}container_name: napcat network_mode: host # ⚠️ 关键:使用 host 网络模式restart: always image: mlikiowa/napcat-docker:latest 

重要:必须使用 network_mode: host,否则 WSL2 无法访问容器!

步骤 3: 启动 NapCat

cd /home/gaof/.openclaw/extensions/qq/deploy/napcat docker compose up -d

步骤 4: 扫码登录 QQ

查看日志获取二维码:

docker logs napcat 2>&1|tail

Read more

Python + Selenium + AI 智能爬虫:自动识别反爬与数据提取

Python + Selenium + AI 智能爬虫:自动识别反爬与数据提取

结合 Selenium 浏览器自动化与 AI 大模型能力,构建能够自动识别反爬机制、智能解析页面的新一代爬虫系统。 1. 系统架构 验证码 登录墙 正常页面 种子 URL 队列 调度器 Selenium WebDriver 反检测模块 页面渲染 AI 反爬识别 AI 验证码破解 自动登录 AI 数据提取 数据清洗管道 存储 MongoDB / CSV 数据看板 2. 反爬机制分布 35%25%20%10%7%3%常见反爬机制占比(Top 500 网站统计)JS 动态渲染请求频率限制验证码(图形/滑块)User-Agent 检测IP

014、文本到图像生成:CLIP引导与潜在对齐

一、从一次深夜调试说起 上周在复现一个文本到图像的生成实验时,遇到了一个典型问题:模型生成的图像看起来“还行”,但总感觉和输入文本差了那么点意思。比如输入“一只戴着墨镜的柴犬在沙滩上晒太阳”,出来的图像柴犬倒是像,但墨镜时有时无,沙滩背景也经常混入奇怪的植被。损失函数在下降,指标看着也正常,但就是不对劲。 这种“不对劲”往往不是模型结构的问题,而是文本和图像两个模态的“对齐”没做好。今天要聊的CLIP引导和潜在对齐,就是解决这个问题的关键思路。 二、CLIP为什么能成为“翻译官” CLIP(Contrastive Language-Image Pre-training)本身是一个多模态模型,它的训练方式很巧妙:让模型学会判断哪些文本和哪些图像是配对的。它不生成任何东西,只做“匹配判断”。这个特性让它成了文本和图像之间的一个高质量“翻译官”。 在扩散模型中引入CLIP,核心目的是用CLIP的跨模态理解能力,来约束图像生成过程,让生成的图像在语义上更贴近文本描述。这里常见的做法是在扩散过程的采样阶段,用CLIP的文本编码和图像编码计算相似度,作为额外的引导信号。 三、CLI

【数据结构与算法】希尔排序

【数据结构与算法】希尔排序

👨‍💻 关于作者:会编程的土豆 “不是因为看见希望才坚持,而是坚持了才看见希望。” 你好,我是会编程的土豆,一名热爱后端技术的Java学习者。 📚 正在更新中的专栏: * 《数据结构与算法》😊😊😊 * 《leetcode hot 100》🥰🥰🥰🤩🤩🤩 * 《数据库mysql》 💕作者简介:后端学习者 概念 希尔排序 = 插入排序 + 分组跳跃 它不是一次只和前面相邻的元素比,而是先隔着很远比,然后慢慢缩小距离,最后变成普通的插入排序 为什么需要希尔排序? 简单插入排序有个明显的软肋:当较小的数都堆在数组尾部时,排序效率会很低。因为插入排序每次只能交换相邻元素,要把尾部的小数挪到前面,需要一步一步“冒泡”过去,非常耗时。 看一下插入排序的代码: public static void insertionSort(int[] arr) { int len = arr.length; for (int i = 1; i <

每日两道力扣,day6

每日两道力扣,day6

每日两道力扣,day6 每日两道力扣,day6 每日两道力扣,今天是: 11. 盛最多水的容器 - 力扣(LeetCode) 15. 三数之和 - 力扣(LeetCode) 第一题:盛最多水的容器 11. 盛最多水的容器 - 力扣(LeetCode) 1.思路: 在写这个题之前,咱们需要了解一个经典原理——木桶效应。 显然,在相同底面积的情况下,木桶盛水的最大值,由最短的那块板决定。这个题很明显是双指针算法的应用场景。因为这个题目给出的是一个平面切割图,咱们定义left,right左右两个指针。底面积S = right - left。高度应是min(height[left],height[right]),所以体积v就是这二者的乘积。观察题目给的示例图,当height[left] <