Clawdbot(Moltbot) 飞书机器人配置,体验老板和助手沟通的感觉

Clawdbot(Moltbot) 飞书机器人配置,体验老板和助手沟通的感觉

一、背景说明

Clawdbot可以24小时待命(参考配置方式:Clawdbot(Moltbot) windows安装配置教程(含各种问题处理)),但是网页端使用起来比毕竟没那么方便,然而clawdbot支持多种渠道交互,这也正是这个AI助理的魅力所在,想想飞书发送一个消息,一个任务就完成了,这不就是老板指挥我做事的方式吗,来赶紧体验一波老板的感觉~

二、飞书机器人创建

飞书开放平台构建机器人:https://open.feishu.cn/

[图片]
在这里插入图片描述

记录App ID 和 App Secret,一会要用:

在这里插入图片描述

三、自动安装插件

项目地址:https://github.com/m1heng/Clawdbot-feishu
这时候,就可以发挥clawdbot的能力了,直接让clawdbot给我安装:

我要安装飞书机器人,帮我按照这个命令安装:Clawdbot plugins install @m1heng-clawd/feishu 
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

到这个过程有点慢,安装了好一会没反应,我开始问了:

在这里插入图片描述

又过了好一会没反应,我又开始问了,这会终于装好了:

在这里插入图片描述

直接给出App ID和App Secret,让clawdbot来配置,这个时候竟然出错了(后面排查可能是我网络问题导致),并且无法再启动clawdbot,执行clawdbot doctor --fix也没用…

在这里插入图片描述

这个问题是飞书的插件没有被正确安装,这里找到clawdbot.json文件,删除plugins和channels对应的飞书部分,然后重启成功
最后终于给我装好了:

在这里插入图片描述

四、飞书机器人配置

按照项目里的操作来设置权限管理:

在这里插入图片描述

以下是项目说明的权限:

在这里插入图片描述

权限太多了,一步步筛选和勾选以上权限:

在这里插入图片描述
在这里插入图片描述

事件配置与回调配置都改成长链接:

在这里插入图片描述

这一步保存时可能会出现:应用未建立长连接,这是因为需要clawdbot连接完成后才能使用(也就是第三部分里李里的内容完成):

在这里插入图片描述

同样按照筛选和勾选的方式添加以下权限:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

最后就是发布了:

在这里插入图片描述

五、测试

大功告成

在这里插入图片描述

网页端界面也有对应的消息记录:

在这里插入图片描述

最后,上面这个过程虽然有点波折,但是这一来一回的询问,不正是老板和员工们沟通的方式吗,我们一直再让AI助力变得更像人,某些方面更是超越人,也许clawdbot正在这条路上走得越来越远~

Read more

从单卡到多卡:Llama Factory微调扩展指南

从单卡到多卡:Llama Factory微调扩展指南 如果你已经成功在单卡GPU上完成了小规模语言模型的微调,现在想要扩展到更大的模型却不知从何下手,这篇文章正是为你准备的。LLaMA-Factory作为一个高效的大语言模型微调框架,能帮助你从单卡环境平滑过渡到多卡分布式训练。本文将详细介绍如何利用LLaMA-Factory实现模型微调的横向扩展,包括环境配置、参数调整和显存优化等关键技巧。 为什么需要从单卡扩展到多卡 当模型规模超过单卡显存容量时,多卡并行训练就成为必然选择。根据实际测试数据: * 7B参数模型全参数微调需要约80GB显存 * 13B参数模型需要约160GB显存 * 70B参数模型可能需要超过600GB显存 这些需求远超单张消费级显卡的容量,此时就需要: 1. 数据并行:将训练数据分片到不同GPU 2. 模型并行:将模型参数拆分到不同GPU 3. 混合策略:结合上述两种方法 LLaMA-Factory多卡环境准备 LLaMA-Factory支持多种分布式训练策略,以下是基础环境配置步骤: 1. 确保所有GPU型号和驱动版本一致 2

2026年知网AIGC检测算法大升级:这些变化你必须知道

2026年知网AIGC检测算法大升级:这些变化你必须知道

2026年知网AIGC检测算法大升级:这些变化你必须知道 2025年12月,知网悄悄升级了AIGC检测算法。 很多同学发现:之前检测过关的论文,重新查一次突然变成了红色。问群里的朋友,情况都差不多。 今天这篇文章解读一下知网新算法的变化,以及怎么应对。 知网AIGC检测3.0:主要变化 知网这次升级的版本被称为「AIGC检测3.0」。和之前相比,主要有三个变化: 变化一:检测维度增加 旧版本主要看「语言模式」,也就是用词和句式是否符合AI特征。 新版本增加了「语义逻辑」维度。它会分析句子之间的逻辑关系,判断论证过程是否「太完美」「太规整」。 人类写作会有跳跃、有转折、有不那么顺畅的地方。AI生成的文本逻辑严密、层层递进,反而不像人写的。 这就是为什么有些同学的论文明明是自己写的,但因为「逻辑太好」反而被判为AI生成。 变化二:判定阈值下调 旧版本:AIGC值≥0.7判定为疑似AI生成 新版本:AIGC值≥0.

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

1.引言 随着大模型在各类智能应用中的广泛应用,高效的推理硬件成为关键瓶颈。昇腾 NPU(Ascend Neural Processing Unit)凭借其高算力、低能耗以及对 SGLang 的深度优化,能够显著提升大模型推理性能。本文以 Llama 3-8B-Instruct 为例,通过在昇腾 NPU 上的实测,展示其在吞吐量、延迟和资源利用方面的优势,并探索可行的优化策略,为开发者在今后的开发中提供可参考的案例。 在本篇文章中我们会使用到Gitcode的Notebook来进行实战,GitCode Notebook 提供了开箱即用的云端开发环境,支持 Python、SGLang 及昇腾 NPU 相关依赖,无需本地复杂环境配置即可直接运行代码和进行实验。对于没有硬件平台的小伙伴来说是非常便利的。 GitCode Notebook使用链接:https://gitcode.com/user/m0_49476241/notebook。 2.实验环境与准备 2.

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用 1.在Vscode的settings中搜索Extension Kind,如图所示: 2.点击Edit in settings.json,添加如下代码: "remote.extensionKind":{"GitHub.copilot":["ui"],"GitHub.copilot-chat":["ui"],} remote.extensionKind 的作用 这是 VS Code 的远程开发配置项,用于控制扩展在远程环境(如 SSH、容器、WSL)中的运行位置。可选值: “ui”:扩展在本地客户端运行 “workspace”:扩展在远程服务器运行 这两个扩展始终在 本地客户端运行,