OpenClaw(Clawdbot)插件更新,新增支持在面板一键QQ和飞书机器人

OpenClaw(Clawdbot)插件更新,新增支持在面板一键QQ和飞书机器人

这次,OpenClaw 插件迎来了一次重要更新。
现在,你可以直接在插件中配置 飞书机器人或 QQ 机器人,让 OpenClaw 真正走出 Web 界面,进入你日常使用的消息工具中。
无需额外部署服务,配置完成后即可开始对话。

在这里插入图片描述

重要提示:由于官方更改包名,不支持直接升级,如需更新请卸载旧版插件,安装新版OpenClaw插件,已有数据会丢失,请您评估是否需要更新,新安装不受影响。
配置QQ机器人1. 打开QQ开放平台,注册账号,如已注册可直接登陆

在这里插入图片描述

点击编辑 IP 白名单,填写服务器 IP 并保存

在这里插入图片描述

点击开发管理,获取APPID、AppSecret

在这里插入图片描述

创建完成后点击刚刚创建的机器人

在这里插入图片描述

填写机器人基础信息

在这里插入图片描述

登录后点击机器人,创建机器人

在这里插入图片描述

按提示完成登录

在这里插入图片描述

8.将获取到的信息填写到插件,并保存启用

在这里插入图片描述

添加后即可在群聊中进行对话

在这里插入图片描述

在此处添加完成后回到QQ-群管理-添加机器人,在其他页面找到机器人

在这里插入图片描述

选择需要使用的群聊

在这里插入图片描述

回到QQ机器人平台,点击沙箱配置

在这里插入图片描述

等待安装插件

在这里插入图片描述

点击保存配置

在这里插入图片描述

到这里,Clawdbot 已经成功接入 QQ,
从配置文件里的一个服务,变成了可以在群聊中响应消息的机器人。

  1. 回到面板插件,将appid和secret填写到插件页面,并点击确定保存

在凭证与基础信息页面,获取应用凭证

在这里插入图片描述

在权限管理页面,允许以下权限

在这里插入图片描述


在这里插入图片描述


![在这里插入图片描述](https://i-blog.ZEEKLOGimg.cn/direct/17ef658d381e4cb9a59c5d2b5e4a0918.png

在这里插入图片描述


建议同步放通可选权限

在这里插入图片描述


在这里插入图片描述

应用能力,选择机器人

在这里插入图片描述

打开飞书开放平台创建企业自建应用

在这里插入图片描述


2.填写基本信息点击创建

在这里插入图片描述
在这里插入图片描述


6. 点击保存配置,安装飞书插件

在这里插入图片描述


7. 安装配置完成后,在事件与回调配置中,选择事件配置,订阅方式选择长连接,保存

在这里插入图片描述


8. 点击添加事件,添加以下订阅事件

在这里插入图片描述


9. 开通后点击创建版本,完成发布
10.现在就可以对话

在这里插入图片描述

Read more

llama.cpp 安装与使用指南

llama.cpp 安装与使用指南 最新在使用llama.cpp的开源框架,所以简单写一下安装过程以及相关的介绍。 llama.cpp 是一个高性能的开源推理框架,用于在 CPU 和 GPU 上运行 LLaMA 系列及其他兼容的 Transformer 模型。 它的特点是轻量、跨平台、可在无显卡的设备上运行,同时对显卡显存利用率很高。 1. 项目介绍 llama.cpp 主要功能: - 支持多种量化格式(Q4, Q5, Q8, Q2 等),显著减少显存占用。 - 支持 CPU、GPU(CUDA、Metal、OpenCL、Vulkan)等多种后端。 - 提供简单易用的 CLI 和 HTTP 服务接口。

LLaMA-Factory环境配置与WebUI启动全攻略:从CUDA适配到依赖踩坑

最近在本地部署LLaMA-Factory时,踩了一连串环境配置的坑——从GitHub克隆失败、CUDA不可用到虚拟环境依赖缺失,最终成功启动WebUI。这篇文章就把完整的排错过程和解决方案整理出来,希望能帮到遇到类似问题的同学。 一、问题背景:本地部署LLaMA-Factory的核心诉求 目标是在Windows 10环境下,基于Anaconda创建虚拟环境,部署LLaMA-Factory并启动WebUI,利用本地NVIDIA MX230显卡(2GB显存)实现GPU加速。但从克隆仓库开始,就遇到了一系列报错,主要涉及三类问题: * 仓库克隆失败(GitHub连接重置、Gitee 403权限拒绝); * PyTorch CUDA支持缺失(报“Torch not compiled with CUDA enabled”); * 虚拟环境依赖缺失(直接运行WebUI报“ModuleNotFoundError: No module named 'torch'”)。 二、核心报错解析与分步解决方案 坑1:仓库克隆失败——网络限制与镜像选择 报错现象 从GitHub克隆时提示连

Whisper-medium.en:重新定义英语语音识别的精准边界

Whisper-medium.en:重新定义英语语音识别的精准边界 【免费下载链接】whisper-medium.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-medium.en 在数字化浪潮席卷全球的今天,语音识别技术正成为连接人机交互的关键桥梁。OpenAI推出的Whisper-medium.en模型凭借其769M参数规模和卓越的语音转文字能力,正在重塑我们对自动语音识别的认知边界。 🎯 为什么选择Whisper-medium.en? 突破性的准确率表现 在权威的LibriSpeech测试中,该模型在"clean"数据集上实现了4.12%的词错误率,在包含更多噪音和口音的"other"数据集上也仅为7.43%。这意味着每转录1000个单词,仅有约41个错误,远超行业平均水平。 无需微调的即插即用 基于680,000小时的多语言语音数据训练,Whisper-medium.en展现出强大的零样本泛化能力。无论是商务会议、学术讲座还是日常对话,模型都能保持稳定的识别精度,省去了传统ASR系统所需的繁琐调优

2026 年 AI 辅助编程工具全景对比:Copilot、Cursor、Claude Code 与 Codex 深度解析

引言 2026 年,AI 辅助编程已经从"尝鲜"变成了"标配"。从 GitHub Copilot 的横空出世,到 Cursor 的异军突起,再到 Claude Code 的强势入局,AI 编程助手正在重塑开发者的工作方式。但面对市面上琳琅满目的工具,你是否也有这样的困惑:哪个工具最适合我?它们之间到底有什么区别? 本文将深入对比四款主流 AI 编程工具,帮你找到最适合自己的那一款。 AI 辅助编程的演进之路 从代码补全到智能协作 早期的 AI 编程工具,如 OpenAI Codex,主要聚焦于代码补全——你写一行,它接下一行。但到了 2026 年,AI 编程助手已经进化成真正的&