linux中从零开始,将OpenClaw 接入 QQ 机器人

linux中从零开始,将OpenClaw 接入 QQ 机器人

Linux 从零开始:将 OpenClaw 接入 QQ 机器人

本文提供完整的 OpenClaw 安装和 QQ 机器人接入指南,适用于 Debian 12 系统,模型使用华为云提供MAAS

📋 目录

  1. 系统准备
  2. 安装 OpenClaw
  3. 配置 QQ 机器人
  4. 测试与验证
  5. 常见问题

🚀 系统准备

环境要求

  • 操作系统:Debian 12(其他 Linux 发行版类似)
  • 用户权限:root 用户
  • 网络:可正常访问外部网络

1.1 SSH 配置(可选)

如需通过 SSH 远程管理,可配置 root 密码登录:

vi /etc/ssh/sshd_config 

修改以下配置:

PasswordAuthentication yes PermitRootLogin yes 

重启 SSH 服务:

systemctl restart sshd 

1.2 配置 APT 镜像源

使用国内镜像源加速软件下载:

# 方法一:使用自动化脚本bash<(curl-sSL https://linuxmirrors.cn/main.sh)# 方法二:手动配置清华源cat> /etc/apt/sources.list <<EOF # 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释 deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # 以下安全更新软件源包含了官方源与镜像站配置,如有需要可自行修改注释切换 deb https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware # deb-src https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware EOFapt update 
在这里插入图片描述

图 1.1:APT 镜像源配置完成

1.3 安装 Node.js

OpenClaw 基于 Node.js 开发,需要安装 Node.js 24:

# 安装 curl(如果未安装)aptinstallcurl-y# 安装 nvm(Node Version Manager)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# 加载 nvm\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 启用 pnpm corepack enablepnpm# 验证安装node-v
在这里插入图片描述

图 1.2:Node.js 安装成功


🔧 安装 OpenClaw

2.1 一键安装

使用官方安装脚本:

curl-fsSL https://openclaw.ai/install.sh |bash
在这里插入图片描述

图 2.1:OpenClaw 安装过程

在这里插入图片描述

图 2.2:选择YES

在这里插入图片描述

图 2.3:快速引导

2.2 配置 AI 模型

选择 AI 模型提供商,这里以华为云 MaaS 为例:

在这里插入图片描述

图 2.4:查看模型提供商

在这里插入图片描述


图 2.5:选择模型提供商

在这里插入图片描述

图 2.6:填入API

2.3 跳过频道配置

在初始配置阶段,可以暂时跳过频道设置,后续再配置 QQ 机器人:

在这里插入图片描述

图 2.7:跳过频道配置

在这里插入图片描述

图 2.8:安装过程

在这里插入图片描述

图 2.9:安装过程

在这里插入图片描述

图 2.10:服务管理界面


🤖 配置 QQ 机器人

3.1 注册 QQ 机器人

  1. 使用 QQ 扫码登录
  2. 创建机器人应用

访问 QQ 机器人注册页面:

https://q.qq.com/qqbot/openclaw/login.html 

3.2 获取凭证信息

创建成功后,保存以下重要信息:

字段说明注意事项
AppID机器人的唯一标识符长期有效
AppSecret机器人调用 API 的密钥只会显示一次,请立即保存
在这里插入图片描述

图 3.1:QQ 机器人凭证信息

3.3 安装 QQ 机器人插件

在 OpenClaw 中安装 QQ 机器人插件:

openclaw plugins install @tencent-connect/openclaw-qqbot@latest 

3.4 添加 QQ 机器人频道

使用获取的 AppID 和 AppSecret 添加频道:

openclaw channels add--channel qqbot --token"AppID:AppSecret"

注意:将 AppID:AppSecret 替换为实际的凭证,格式为 AppID:AppSecret

3.5 重启 OpenClaw 服务

使配置生效:

systemctl --user restart openclaw-gateway.service 
在这里插入图片描述

图 3.2:QQ 机器人插件安装成功


🧪 测试与验证

4.1 测试对话功能

  1. 打开 QQ,使用创建的机器人账号
  2. 向机器人发送消息

确认能够收到 OpenClaw 的回复

在这里插入图片描述

图 4.1:QQ 机器人对话测试成功

4.2 验证服务状态

检查 OpenClaw 服务运行状态:

systemctl --user status openclaw-gateway.service 

📚 扩展功能

4.1 配置其他频道

除了 QQ 机器人,OpenClaw 还支持:

  • Telegram
  • Discord
  • Slack
  • Web 界面

4.2 添加技能模块

安装扩展技能:

openclaw plugins install<插件名称>

4.3 自定义配置

编辑配置文件:

vi ~/.openclaw/config.yaml 

🎉 完成

恭喜!你已经成功在 Linux 系统上安装 OpenClaw 并接入 QQ 机器人。现在可以开始使用智能助手功能了。

下一步建议

  1. 探索 OpenClaw 的其他功能
  2. 配置定时任务和提醒
  3. 集成其他服务和 API
  4. 开发自定义技能

Read more

前端部署:别让你的应用在上线后掉链子

前端部署:别让你的应用在上线后掉链子 毒舌时刻 这部署流程写得跟绕口令似的,谁能记得住? 各位前端同行,咱们今天聊聊前端部署。别告诉我你还在手动上传文件到服务器,那感觉就像在石器时代用石头砸坚果——能用,但效率低得可怜。 为什么你需要自动化部署 最近看到一个项目,部署时需要手动复制文件到服务器,每次部署都要花上几个小时。我就想问:你是在做部署还是在做体力活? 反面教材 # 反面教材:手动部署 # 1. 构建项目 npm run build # 2. 压缩文件 zip -r build.zip build # 3. 上传到服务器 scp build.zip user@server:/var/www/html # 4. 登录服务器 ssh user@server # 5. 解压文件 unzip

Rust WebAssembly开发实战:构建高性能前端应用

Rust WebAssembly开发实战:构建高性能前端应用

Rust WebAssembly开发实战:构建高性能前端应用 一、引言 💡WebAssembly(Wasm)是一种二进制指令格式,旨在提供一种可移植的、高效的编译目标,允许开发者使用多种语言(如C、C++、Rust)编写代码,并在Web浏览器中以接近原生速度运行。它填补了JavaScript在性能密集型任务上的空白,使得在Web端开发高性能应用成为可能。 Rust语言以其内存安全、零成本抽象、高性能和良好的工具链支持,成为开发WebAssembly的首选语言之一。Rust编译器可以直接将Rust代码编译成WebAssembly,并且Rust的标准库提供了对WebAssembly的良好支持。此外,Rust生态系统中还有许多专门为WebAssembly开发的库和工具,使得开发过程更加简单。 本章将深入探讨Rust WebAssembly开发的核心原理,介绍WebAssembly的概念、优势和应用场景,讲解如何使用Rust编译器将Rust代码编译成WebAssembly,以及如何在Web浏览器中调用WebAssembly模块。同时,本章还将通过实战项目演示如何构建一个高性能的前端

如何购买Token以扩展GLM-4.6V-Flash-WEB的API调用额度?

如何扩展 GLM-4.6V-Flash-WEB 的 API 调用额度:从 Token 机制到本地部署的完整实践 在多模态 AI 应用快速落地的今天,视觉语言模型(VLM)已经不再是实验室里的概念,而是实实在在驱动智能客服、内容审核、教育辅助等系统的核心组件。尤其是像 GLM-4.6V-Flash-WEB 这类专为 Web 场景优化的轻量级模型,凭借其低延迟、高精度和易集成的特点,正被越来越多开发者引入生产环境。 但随之而来的问题也逐渐浮现:随着用户增长和请求频率上升,API 调用额度很快见底——你有没有遇到过这样的情况?前端页面一切正常,可突然开始返回“请求失败”或 429 Too Many Requests 错误。排查一圈才发现,不是服务挂了,也不是网络问题,而是账户里的 Token 被用光了。 这背后其实是一套精细化的资源计量机制在起作用。理解它,不仅能帮你避免服务中断,

网络爬虫(Web Scraping)是一种用于自动提取网页内容的技术

网络爬虫(Web Scraping)是一种用于自动提取网页内容的技术

下面内容摘录自《用R探索医药数据科学》专栏文章的部分内容(原文7642字)。 2章10节:R的网络爬虫技术快速入门(更新20241217)_如何用r分析inhanes数据库-ZEEKLOG博客  在现代数据分析和互联网应用中,网络爬虫技术已经成为一个不可或缺的工具。通过网络爬虫,用户可以自动化地抓取网页内容,从而高效地获取大量的数据资源。R语言中的rvest包提供了强大的功能,帮助用户在数据收集、清洗和存储方面更高效地操作。然而,在运用网络爬虫技术时,除了掌握相关技术操作外,还必须注意遵守相关的法律法规,尤其是在数据采集和使用过程中,确保不侵犯他人合法权益并遵循网站的使用协议。接下来,我们将通过rvest包的使用示例,展示如何抓取网页数据、清洗信息并进行存储,同时强调遵守相关法律规范的重要性。 一、R的网络爬虫 1、认识网络爬虫 网络爬虫(Web Scraping)是一种用于自动提取网页内容的技术。通过模拟浏览器行为,网络爬虫可以访问网站、读取网页源代码,并从中提取所需的信息。这种技术在数据分析、市场研究、学术研究等领域有广泛的应用,能够帮助用户从大量的网页中快速获取数