linux中从零开始,将OpenClaw 接入 QQ 机器人

linux中从零开始,将OpenClaw 接入 QQ 机器人

Linux 从零开始:将 OpenClaw 接入 QQ 机器人

本文提供完整的 OpenClaw 安装和 QQ 机器人接入指南,适用于 Debian 12 系统,模型使用华为云提供MAAS

📋 目录

  1. 系统准备
  2. 安装 OpenClaw
  3. 配置 QQ 机器人
  4. 测试与验证
  5. 常见问题

🚀 系统准备

环境要求

  • 操作系统:Debian 12(其他 Linux 发行版类似)
  • 用户权限:root 用户
  • 网络:可正常访问外部网络

1.1 SSH 配置(可选)

如需通过 SSH 远程管理,可配置 root 密码登录:

vi /etc/ssh/sshd_config 

修改以下配置:

PasswordAuthentication yes PermitRootLogin yes 

重启 SSH 服务:

systemctl restart sshd 

1.2 配置 APT 镜像源

使用国内镜像源加速软件下载:

# 方法一:使用自动化脚本bash<(curl-sSL https://linuxmirrors.cn/main.sh)# 方法二:手动配置清华源cat> /etc/apt/sources.list <<EOF # 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释 deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware deb http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # deb-src http://mirrors.tuna.tsinghua.edu.cn/debian/ bookworm-backports main contrib non-free non-free-firmware # 以下安全更新软件源包含了官方源与镜像站配置,如有需要可自行修改注释切换 deb https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware # deb-src https://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware EOFapt update 
在这里插入图片描述

图 1.1:APT 镜像源配置完成

1.3 安装 Node.js

OpenClaw 基于 Node.js 开发,需要安装 Node.js 24:

# 安装 curl(如果未安装)aptinstallcurl-y# 安装 nvm(Node Version Manager)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# 加载 nvm\. "$HOME/.nvm/nvm.sh"# 安装 Node.js 24 nvm install24# 启用 pnpm corepack enablepnpm# 验证安装node-v
在这里插入图片描述

图 1.2:Node.js 安装成功


🔧 安装 OpenClaw

2.1 一键安装

使用官方安装脚本:

curl-fsSL https://openclaw.ai/install.sh |bash
在这里插入图片描述

图 2.1:OpenClaw 安装过程

在这里插入图片描述

图 2.2:选择YES

在这里插入图片描述

图 2.3:快速引导

2.2 配置 AI 模型

选择 AI 模型提供商,这里以华为云 MaaS 为例:

在这里插入图片描述

图 2.4:查看模型提供商

在这里插入图片描述


图 2.5:选择模型提供商

在这里插入图片描述

图 2.6:填入API

2.3 跳过频道配置

在初始配置阶段,可以暂时跳过频道设置,后续再配置 QQ 机器人:

在这里插入图片描述

图 2.7:跳过频道配置

在这里插入图片描述

图 2.8:安装过程

在这里插入图片描述

图 2.9:安装过程

在这里插入图片描述

图 2.10:服务管理界面


🤖 配置 QQ 机器人

3.1 注册 QQ 机器人

  1. 使用 QQ 扫码登录
  2. 创建机器人应用

访问 QQ 机器人注册页面:

https://q.qq.com/qqbot/openclaw/login.html 

3.2 获取凭证信息

创建成功后,保存以下重要信息:

字段说明注意事项
AppID机器人的唯一标识符长期有效
AppSecret机器人调用 API 的密钥只会显示一次,请立即保存
在这里插入图片描述

图 3.1:QQ 机器人凭证信息

3.3 安装 QQ 机器人插件

在 OpenClaw 中安装 QQ 机器人插件:

openclaw plugins install @tencent-connect/openclaw-qqbot@latest 

3.4 添加 QQ 机器人频道

使用获取的 AppID 和 AppSecret 添加频道:

openclaw channels add--channel qqbot --token"AppID:AppSecret"

注意:将 AppID:AppSecret 替换为实际的凭证,格式为 AppID:AppSecret

3.5 重启 OpenClaw 服务

使配置生效:

systemctl --user restart openclaw-gateway.service 
在这里插入图片描述

图 3.2:QQ 机器人插件安装成功


🧪 测试与验证

4.1 测试对话功能

  1. 打开 QQ,使用创建的机器人账号
  2. 向机器人发送消息

确认能够收到 OpenClaw 的回复

在这里插入图片描述

图 4.1:QQ 机器人对话测试成功

4.2 验证服务状态

检查 OpenClaw 服务运行状态:

systemctl --user status openclaw-gateway.service 

📚 扩展功能

4.1 配置其他频道

除了 QQ 机器人,OpenClaw 还支持:

  • Telegram
  • Discord
  • Slack
  • Web 界面

4.2 添加技能模块

安装扩展技能:

openclaw plugins install<插件名称>

4.3 自定义配置

编辑配置文件:

vi ~/.openclaw/config.yaml 

🎉 完成

恭喜!你已经成功在 Linux 系统上安装 OpenClaw 并接入 QQ 机器人。现在可以开始使用智能助手功能了。

下一步建议

  1. 探索 OpenClaw 的其他功能
  2. 配置定时任务和提醒
  3. 集成其他服务和 API
  4. 开发自定义技能

Read more

Flutter 组件 genkit 的适配 鸿蒙Harmony 实战 - 驾驭大模型开发套件、实现鸿蒙端 AI 智能流式响应与提示词工程自动化方案

Flutter 组件 genkit 的适配 鸿蒙Harmony 实战 - 驾驭大模型开发套件、实现鸿蒙端 AI 智能流式响应与提示词工程自动化方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 genkit 的适配 鸿蒙Harmony 实战 - 驾驭大模型开发套件、实现鸿蒙端 AI 智能流式响应与提示词工程自动化方案 前言 在鸿蒙(OpenHarmony)生态向智能化、全场景自动化的演进过程中,“生成式 AI(Generative AI)”不再仅仅是一个噱头,而是重塑应用交互逻辑的核心底座。面对日益复杂的 LLM(大语言模型)调用链路、层出不穷的提示词(Prompt)版本管理以及对实时流式响应(Streaming)的严苛要求。如果仅仅依靠原始的 HTTP POST 请求。那么不仅会导致开发效率极低。更难以应对 AI 业务中常见的“幻觉审计”与“多模型动态切换”等高阶挑战方案。 我们需要一种“开发者友好、

AI大模型微调(三)------Qwen3模型Lora微调(使用Llamafactory)

AI大模型微调(三)------Qwen3模型Lora微调(使用Llamafactory)

AI大模型微调(三)------Qwen3模型Lora微调(使用Llamafactory) 文章目录 * AI大模型微调(三)------Qwen3模型Lora微调(使用Llamafactory) * 一、安装LLaMA-Factory&开发环境 * 二、数据集 * 1.Alpaca * 2.ShareGPT * 3.自定义数据集 * 三、LoRA指令微调 * 四、可视化/零代码微调 * 1.模型下载源 * 2.微调方法 * 3.Train-数据集 * 4.Train-计算类型 * 5.模型名称 * 6.导出微调过的模型 * 五、可能出现的问题 * 1.CUDA未找到 * 2.ValueError: Your setup doesn't support bf16/

论文AI率太高?八个方法教你30分钟降低AIGC,90%到2.4%亲测有效!

现在写论文的人越来越多,一写就会出现AI率过高的问题,特别是在研究生论文中,使用AI辅助写作已经非常普遍了,但是只要查重一下就会“凉了”,导师直接打回去说AI味太浓,没有自己的想法。 去年我自己也犯过同样的错误,初稿的时候AI率是66%,查重35%,导师说我全是机器的味道,那时候真的很难受。 经过一周的努力之后,一边手动修改一边测试各种工具,最后将AI率从90%以上降到了2.4%,顺利提交并通过了。 今天就来分享一下效果比较好的8个实用方法,在三十分钟内就可以把AI率降低到可以接受的程度,不管是论文、报告还是文案都可以轻松摆脱AI腔。 降AI率的核心是什么? 降AI不是简单的换词,而是去除机器的痕迹,保留主要信息。 很多人以为降低AI率就是用同义词替换,但是结果反而变得很奇怪,专业性也不强了。 其实是在打破AI所固有的模式:固定的句式、过于严谨的逻辑、表达含糊不清没有实质内容。 不用这些套路的话,AI率就会下降,学术上的严谨性也不会受到影响。 方法一:变换语态,长短句交替使用 AI经常使用被动语态以及较长的句子,如“实验数据经过分析后得到的结果”,显得很机械。短

Whisper-large-v3功能测评:多语言语音识别真实表现

Whisper-large-v3功能测评:多语言语音识别真实表现 1. 引言:多语言语音识别的现实挑战 在跨语言交流日益频繁的今天,自动语音识别(ASR)系统需要应对复杂的语言混合、口音差异和噪声干扰。OpenAI发布的Whisper-large-v3模型宣称支持99种语言的自动检测与转录,在多语言场景下展现出前所未有的通用性。然而,理论能力与实际表现之间往往存在差距。 你是否遇到过以下问题? * 多语种会议中语言切换导致识别中断 * 小语种或方言发音被错误归类为相近主流语言 * 混合语句如“Can you help me avec ça?”无法准确解析 * 专业术语在翻译模式下语义失真 本文将基于真实部署环境下的测试数据,全面评估Whisper-large-v3在多语言语音识别中的实际表现,揭示其优势边界与潜在缺陷,并提供可落地的优化建议。 2. 技术架构与核心特性分析 2.1 模型基础参数 Whisper-large-v3采用标准的Transformer编码器-解码器架构,关键参数如下: * 模型规模:1.5B参数量 * 上下文长度:30秒音频分块