linux中从零开始,将OpenClaw 接入 QQ 机器人

linux中从零开始,将OpenClaw 接入 QQ 机器人

Linux 从零开始:将 OpenClaw 接入 QQ 机器人

本文提供完整的 OpenClaw 安装和 QQ 机器人接入指南,适用于 Debian 12 系统,模型使用华为云提供MAAS

📋 目录

  1. 系统准备
  2. 安装 OpenClaw
  3. 配置 QQ 机器人
  4. 测试与验证
  5. 常见问题

🚀 系统准备

环境要求

  • 操作系统:Debian 12(其他 Linux 发行版类似)
  • 用户权限:root 用户
  • 网络:可正常访问外部网络

1.1 SSH 配置(可选)

如需通过 SSH 远程管理,可配置 root 密码登录:

vi /etc/ssh/sshd_config 

修改以下配置:

PasswordAuthentication yes PermitRootLogin yes 

重启 SSH 服务:

systemctl restart sshd 

1.2 配置 APT 镜像源

使用国内镜像源加速软件下载:

# 方法一:使用自动化脚本bash<(curl-sSL https://linuxmirrors.cn/main.sh)# 方法二:手动配置清华源cat> /etc/apt/sources.list <<EOF # 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释 deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # 以下安全更新软件源包含了官方源与镜像站配置,如有需要可自行修改注释切换 deb https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware # deb-src https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware EOFapt update 
在这里插入图片描述

图 1.1:APT 镜像源配置完成

1.3 安装 Node.js

OpenClaw 基于 Node.js 开发,需要安装 Node.js 24:

# 安装 curl(如果未安装)aptinstallcurl-y# 安装 nvm(Node Version Manager)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# 加载 nvm\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 启用 pnpm corepack enablepnpm# 验证安装node-v
在这里插入图片描述

图 1.2:Node.js 安装成功


🔧 安装 OpenClaw

2.1 一键安装

使用官方安装脚本:

curl-fsSL https://openclaw.ai/install.sh |bash
在这里插入图片描述

图 2.1:OpenClaw 安装过程

在这里插入图片描述

图 2.2:选择YES

在这里插入图片描述

图 2.3:快速引导

2.2 配置 AI 模型

选择 AI 模型提供商,这里以华为云 MaaS 为例:

在这里插入图片描述

图 2.4:查看模型提供商

在这里插入图片描述


图 2.5:选择模型提供商

在这里插入图片描述

图 2.6:填入API

2.3 跳过频道配置

在初始配置阶段,可以暂时跳过频道设置,后续再配置 QQ 机器人:

在这里插入图片描述

图 2.7:跳过频道配置

在这里插入图片描述

图 2.8:安装过程

在这里插入图片描述

图 2.9:安装过程

在这里插入图片描述

图 2.10:服务管理界面


🤖 配置 QQ 机器人

3.1 注册 QQ 机器人

  1. 使用 QQ 扫码登录
  2. 创建机器人应用

访问 QQ 机器人注册页面:

https://q.qq.com/qqbot/openclaw/login.html 

3.2 获取凭证信息

创建成功后,保存以下重要信息:

字段说明注意事项
AppID机器人的唯一标识符长期有效
AppSecret机器人调用 API 的密钥只会显示一次,请立即保存
在这里插入图片描述

图 3.1:QQ 机器人凭证信息

3.3 安装 QQ 机器人插件

在 OpenClaw 中安装 QQ 机器人插件:

openclaw plugins install @tencent-connect/openclaw-qqbot@latest 

3.4 添加 QQ 机器人频道

使用获取的 AppID 和 AppSecret 添加频道:

openclaw channels add--channel qqbot --token"AppID:AppSecret"

注意:将 AppID:AppSecret 替换为实际的凭证,格式为 AppID:AppSecret

3.5 重启 OpenClaw 服务

使配置生效:

systemctl --user restart openclaw-gateway.service 
在这里插入图片描述

图 3.2:QQ 机器人插件安装成功


🧪 测试与验证

4.1 测试对话功能

  1. 打开 QQ,使用创建的机器人账号
  2. 向机器人发送消息

确认能够收到 OpenClaw 的回复

在这里插入图片描述

图 4.1:QQ 机器人对话测试成功

4.2 验证服务状态

检查 OpenClaw 服务运行状态:

systemctl --user status openclaw-gateway.service 

📚 扩展功能

4.1 配置其他频道

除了 QQ 机器人,OpenClaw 还支持:

  • Telegram
  • Discord
  • Slack
  • Web 界面

4.2 添加技能模块

安装扩展技能:

openclaw plugins install<插件名称>

4.3 自定义配置

编辑配置文件:

vi ~/.openclaw/config.yaml 

🎉 完成

恭喜!你已经成功在 Linux 系统上安装 OpenClaw 并接入 QQ 机器人。现在可以开始使用智能助手功能了。

下一步建议

  1. 探索 OpenClaw 的其他功能
  2. 配置定时任务和提醒
  3. 集成其他服务和 API
  4. 开发自定义技能

Read more

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

终极指南:5步实现Whisper GPU加速10倍性能提升

终极指南:5步实现Whisper GPU加速10倍性能提升 【免费下载链接】whisperopenai/whisper: 是一个用于实现语音识别和语音合成的 JavaScript 库。适合在需要进行语音识别和语音合成的网页中使用。特点是提供了一种简单、易用的 API,支持多种语音识别和语音合成引擎,并且能够自定义语音识别和语音合成的行为。 项目地址: https://gitcode.com/GitHub_Trending/whisp/whisper 还在为语音识别的漫长等待而烦恼吗?当你面对1小时的会议录音时,传统CPU处理需要15分钟才能完成转录,而通过Whisper的CUDA GPU加速技术,这一时间可以缩短到仅90秒!本文将为你揭示如何通过5个简单步骤,让你的语音识别效率实现10倍跃升。 第一步:环境准备与快速配置 系统要求检查 在开始GPU加速之旅前,首先确认你的系统满足基本要求: * NVIDIA GPU:Compute Capability ≥ 3.5 * CUDA Toolkit:11.3及以上版本 * PyTorch:1.10+版本支持

一文读懂UGC、PGC、PUGC、OGC、MGC、BGC与AIGC

一文读懂UGC、PGC、PUGC、OGC、MGC、BGC与AIGC 在当今这个信息爆炸的数字时代,我们无时无刻不被各种形式的内容所包围——从短视频、直播到图文资讯、专业评测。你或许经常听到UGC、PGC、AIGC这些听起来很“高级”的缩写,但它们究竟代表什么?彼此之间又有什么区别和联系?今天,就让我们一次性说清楚内容创作领域的各种“GC”(Generated Content)。 文章目录 * 一文读懂UGC、PGC、PUGC、OGC、MGC、BGC与AIGC * 1 核心区别:是“谁”在创作内容? * 2 UGC (User Generated Content) - 用户生成内容 * 3 PGC (Professionally Generated Content) - 专业生成内容 * 4

【大模型科普】AIGC技术发展与应用实践(一文读懂AIGC)

【大模型科普】AIGC技术发展与应用实践(一文读懂AIGC)

【作者主页】Francek Chen 【专栏介绍】 ⌈ ⌈ ⌈人工智能与大模型应用 ⌋ ⌋ ⌋ 人工智能(AI)通过算法模拟人类智能,利用机器学习、深度学习等技术驱动医疗、金融等领域的智能化。大模型是千亿参数的深度神经网络(如ChatGPT),经海量数据训练后能完成文本生成、图像创作等复杂任务,显著提升效率,但面临算力消耗、数据偏见等挑战。当前正加速与教育、科研融合,未来需平衡技术创新与伦理风险,推动可持续发展。 文章目录 * 一、AIGC概述 * (一)什么是AIGC * (二)AIGC与大模型的关系 * (三)常见的AIGC应用场景 * (四)AIGC技术对行业发展的影响 * (五)AIGC技术对职业发展的影响 * (六)常见的AIGC大模型工具 * (七)AIGC大模型的提示词 * 二、文本类AIGC应用实践 * (一)案例1:与DeepSeek进行对话 * (二)案例2:与百度文心一言进行对话 * (三)案例3:使用讯飞智文生成PPT