# OpenClaw QQ 机器人接入完整指南

作者: 星期五助手
创建时间: 2026-03-05
适用版本: OpenClaw 2026.2.26+


📖 目录

  1. 项目概述
  2. 环境准备
  3. 安装 NapCat QQ 机器人
  4. 配置 OpenClaw QQ 插件
  5. 网络配置(关键)
  6. 测试与验证
  7. 常见问题

项目概述

本指南介绍如何将 OpenClaw 接入 QQ,实现通过 QQ 与 OpenClaw 智能助手对话。

架构说明

┌─────────────┐ ┌──────────────┐ ┌─────────────┐ │ QQ 用户 │ ──→ │ NapCat │ ──→ │ OpenClaw │ │ (发消息) │ │ (QQ 机器人) │ │ (星期五) │ └─────────────┘ └──────────────┘ └─────────────┘ ↓ (OneBot WebSocket) 

技术栈

  • NapCat: QQ 机器人框架(基于 OneBot v11 协议)
  • OpenClaw QQ 插件: OpenClaw 官方 QQ 频道插件
  • Docker: NapCat 容器化部署
  • Host 网络模式: 解决 WSL2 与 Docker 网络互通问题

环境准备

系统要求

  • ✅ Linux / WSL2 (Windows Subsystem for Linux)
  • ✅ Docker 20.10+
  • ✅ Docker Compose 2.0+
  • ✅ OpenClaw 2026.2.26+
  • ✅ Node.js 18+ (OpenClaw 运行环境)

检查环境

# 检查 Dockerdocker--versiondocker compose version # 检查 OpenClaw openclaw --version# 检查 Node.jsnode--version

安装 NapCat QQ 机器人

步骤 1: 创建部署目录

mkdir-p /home/gaof/.openclaw/extensions/qq/deploy/napcat cd /home/gaof/.openclaw/extensions/qq/deploy/napcat 

步骤 2: 创建 Docker Compose 配置

创建 docker-compose.yml

version:"3"services:napcat:environment:- NAPCAT_UID=${ NAPCAT_UID}- NAPCAT_GID=${ NAPCAT_GID}container_name: napcat network_mode: host # ⚠️ 关键:使用 host 网络模式restart: always image: mlikiowa/napcat-docker:latest 

重要:必须使用 network_mode: host,否则 WSL2 无法访问容器!

步骤 3: 启动 NapCat

cd /home/gaof/.openclaw/extensions/qq/deploy/napcat docker compose up -d

步骤 4: 扫码登录 QQ

查看日志获取二维码:

docker logs napcat 2>&1|tail

Read more

CopilotKit for LangGraph 深度解析:构建 Agent 原生应用的前端交互框架

引言 随着大语言模型(LLM)技术的快速发展,AI Agent 应用正在从简单的聊天机器人演进为具备复杂推理、规划和工具调用能力的智能系统。LangGraph 作为 LangChain 生态中构建有状态、多步骤 Agent 工作流的核心框架,已被广泛应用于生产环境。然而,如何将这些后端 Agent 与前端用户界面进行高效、实时的交互,一直是开发者面临的技术挑战。 CopilotKit 正是为解决这一问题而生的开源框架。它通过 AG-UI(Agent-User Interaction Protocol)协议,为 LangGraph Agent 提供了标准化的前端集成方案,使开发者能够构建真正的 Agent 原生应用(Agent-Native Applications)。 本文将深入分析 CopilotKit 与 LangGraph 集成的核心机制,重点对比 useAgent 与 useCoAgent、useRenderToolCall 与

BAAI/bge-m3环境部署教程:从零配置到WebUI运行完整步骤

BAAI/bge-m3环境部署教程:从零配置到WebUI运行完整步骤 1. 学习目标与前置准备 本教程将带领您完成 BAAI/bge-m3 语义相似度分析引擎的完整部署流程,涵盖环境搭建、模型加载、服务启动及 WebUI 使用等关键环节。通过本文,您将能够: * 在本地或云服务器上成功部署 bge-m3 模型推理环境 * 理解基于 sentence-transformers 的文本向量化实现机制 * 启动并访问可视化 WebUI 界面进行语义相似度测试 * 验证 RAG 场景下的文本召回质量 1.1 前置知识要求 为确保顺利跟随本教程操作,请确认已掌握以下基础知识: * 基础 Linux 命令行使用能力(文件操作、权限管理) * Python 编程基础(了解 pip 包管理工具) * 对 NLP 中“文本嵌入”和“余弦相似度”有基本理解

轻量级前端革命:为什么 Lit 和 Alpine.js 正在悄悄取代你的“重量级”框架?

作为一名摸爬滚打十年的前端老炮儿,我最近在代码仓库里发现一个有趣现象:越来越多的开发者开始“戒掉” React/Vue 的庞大生态,转而拥抱两个名字简单到近乎“冷门”的库——Lit 和 Alpine.js。它们不依赖 Webpack 或 Rollup,直接以纯 ESM(ECMAScript Modules)形式运行,体积小到只有 10KB 左右(压缩后),却能解决日常开发中的高频痛点。今天,咱们就来扒一扒这两位“低调的狠人”,看看它们如何用极简设计,重新定义现代 Web 开发的效率边界。 一、纯 ESM:轻量级库的“灵魂”所在 先搞清楚一个关键点:为什么 ESM 是轻量级库的基石? 传统前端库依赖打包工具(如 Webpack)将代码“打包”