Clawdbot(Moltbot) 飞书机器人配置,体验老板和助手沟通的感觉

Clawdbot(Moltbot) 飞书机器人配置,体验老板和助手沟通的感觉

一、背景说明

Clawdbot可以24小时待命(参考配置方式:Clawdbot(Moltbot) windows安装配置教程(含各种问题处理)),但是网页端使用起来比毕竟没那么方便,然而clawdbot支持多种渠道交互,这也正是这个AI助理的魅力所在,想想飞书发送一个消息,一个任务就完成了,这不就是老板指挥我做事的方式吗,来赶紧体验一波老板的感觉~

二、飞书机器人创建

飞书开放平台构建机器人:https://open.feishu.cn/

[图片]
在这里插入图片描述

记录App ID 和 App Secret,一会要用:

在这里插入图片描述

三、自动安装插件

项目地址:https://github.com/m1heng/Clawdbot-feishu
这时候,就可以发挥clawdbot的能力了,直接让clawdbot给我安装:

我要安装飞书机器人,帮我按照这个命令安装:Clawdbot plugins install @m1heng-clawd/feishu 
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

到这个过程有点慢,安装了好一会没反应,我开始问了:

在这里插入图片描述

又过了好一会没反应,我又开始问了,这会终于装好了:

在这里插入图片描述

直接给出App ID和App Secret,让clawdbot来配置,这个时候竟然出错了(后面排查可能是我网络问题导致),并且无法再启动clawdbot,执行clawdbot doctor --fix也没用…

在这里插入图片描述

这个问题是飞书的插件没有被正确安装,这里找到clawdbot.json文件,删除plugins和channels对应的飞书部分,然后重启成功
最后终于给我装好了:

在这里插入图片描述

四、飞书机器人配置

按照项目里的操作来设置权限管理:

在这里插入图片描述

以下是项目说明的权限:

在这里插入图片描述

权限太多了,一步步筛选和勾选以上权限:

在这里插入图片描述
在这里插入图片描述

事件配置与回调配置都改成长链接:

在这里插入图片描述

这一步保存时可能会出现:应用未建立长连接,这是因为需要clawdbot连接完成后才能使用(也就是第三部分里李里的内容完成):

在这里插入图片描述

同样按照筛选和勾选的方式添加以下权限:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

最后就是发布了:

在这里插入图片描述

五、测试

大功告成

在这里插入图片描述

网页端界面也有对应的消息记录:

在这里插入图片描述

最后,上面这个过程虽然有点波折,但是这一来一回的询问,不正是老板和员工们沟通的方式吗,我们一直再让AI助力变得更像人,某些方面更是超越人,也许clawdbot正在这条路上走得越来越远~

Read more

Yolo11 基于DroneVehicle数据集的无人机视角下车辆目标检测

Yolo11 基于DroneVehicle数据集的无人机视角下车辆目标检测

1、关于DroneVehicle数据集介绍 DroneVenicle数据集是由天津大学收集、标注的大型无人机航拍车辆数据集。 DroneVehicle 数据集由无人机采集的共 56,878 幅图像组成,其中一半为 RGB 图像,其余为红外图像。我们对五个类别进行了带有方向性边界框的丰富标注。其中,汽车car 在 RGB 图像中有 389,779 个标注,在红外图像中有 428,086 个标注;卡车truck 在 RGB 图像中有 22,123 个标注,在红外图像中有 25,960 个标注;公交车bus 在 RGB 图像中有 15,333 个标注,在红外图像中有 16,590 个标注;面包车van 在

论文阅读“Vision-Language-Action (VLA) Models: Concepts, Progress, Applications and Challenges“

目录 * 一、**研究背景与动机** * 1.1 背景 * 1.2 动机 * 二、**VLA模型的核心概念** * 2.1 定义 * 2.2 三大发展阶段 * 三、**核心技术分析** * 3.1 多模态融合 * 3.2 统一Token化 * 3.3 学习策略 * 四、**代表性模型总结** * 五、**应用场景分析** * 5.1 人形机器人 * 5.2 自动驾驶 * 5.3 工业制造 * 5.4 医疗与农业 * 5.5 增强现实导航 * 六、**挑战与局限** * 七、

青岑web入门学习wp

靶场介绍: 最近我等于刷到一个新靶场挺好玩的 新搭建的,对新手很友好,这里推荐给大家 https://ctf.qingcen.net/ 还可以加入群聊和师傅们一起交流,进步 快哉,快哉 本篇博客的知识点来源ai or 大佬的博客(我会放链接的) ai成分高,望大家原谅 1、basic: 总结:先看源码和抓包,再找注入点和逻辑问题,最后构造 payload 拿 flag。多做题、多总结,就能形成自己的做题节奏。 直接f12得到flag: flag{56abffc9-f44f-4c90-a8a4-9fc66954ebfb} 2、BASIC_1 我们查看f12发现被封了 一样查看源码得到flag: flag{b997595d-f02c-4f3b-857b-c22433293d3e}  3、basic_2 抓取提交的包 发现无论提交什么内容is_admin一直为0 修改is_admin 得到flag

金融场景实践:用GLM-4.6V-Flash-WEB分析报表截图

金融场景实践:用GLM-4.6V-Flash-WEB分析报表截图 在银行风控部门的早会上,分析师小张又一次面对堆积如山的PDF报表和微信截图——客户上传的对账单、交易流水截图、资产负债表照片……这些非结构化图像每天超过2000张。人工逐张识别、转录、核验,平均耗时8分钟/张,错误率超12%。当一笔可疑交易因延迟识别错过黄金处置窗口,问题就不再是效率,而是风险。 这不是个例。大量金融机构正卡在“最后一公里”:已有OCR工具能识字,却读不懂表格逻辑;传统NLP模型能分析文本,却无法理解“左上角第三行‘本期余额’数值异常偏低”这类跨模态指令。真正需要的,是一个能看懂图、听懂话、理清业务逻辑的智能体。 GLM-4.6V-Flash-WEB正是为此而生——它不只是一张更清晰的“眼睛”,更是一套嵌入金融语境的“业务大脑”。本文将带你跳过理论推演,直接进入真实战场:用一张手机拍摄的资产负债表截图,完成从上传到风险提示的完整闭环。 1. 为什么金融场景特别需要视觉大模型? 1.1 传统方案的三重失效 金融数据天然具有强图像属性:监管报送的扫描件、