OpenClaw多智能体路由实战:飞书多机器人配置指南

文章目录

目前我已经完成了OpenClaw的基本安装,但是在对话框只有一个,机器人也只绑定到主会话,一次只能处理一个消息。很多时候我在聊天窗口,说A任务,然后做了一半,又发了关于B任务的指令。一是每次发完消息,如果OpenClaw还在处理,剩下的消息要么进入队列、要么看不到(实际还在队列)。两个任务切来切去,感觉体验很不好。

要彻底解决这个问题,实现网上演示的那种对各Agent、每个对话机器人对应一个Agent,就需要用到多智能体路由技术。
实现的步骤如下:

  • 在飞书创建一个新的机器人
  • 通过控制台创建新的智能体
  • 按照指引将飞书配置上去
  • 根据需要创建多个Agent和机器人,并对应配置上去(略)

飞书重新安装问题

明明我已经安装好了飞书,系统还是会提示我安装,否则就跳过了添加飞书这步。应该是系统Bug。这次安装的飞书位置在~/.openclaw/extensions/feishu,其实和~/.npm-global/lib/node_modules/openclaw/extensions/feishu/是一样的,安装的方法不同而已。建议把.npm-global的删除。

请添加图片描述

第二次配置的时候,会把第一次飞书Channel给覆盖掉,具体看channels.feishu下面的配置。因为我们要实现每个Agent对应一个机器人,就必须要有多个feishu的机器人配置,而这里只有一个。

请添加图片描述


以下为OpenClaw自己配置的:

请添加图片描述

正确的如下,将多个机器人配置放在了channels.feishu.accounts下面,没办法只能手工改:

 "channels": { "feishu": { "enabled": true, "domain": "feishu", "groupPolicy": "allowlist", "accounts": { "main": { "appId": "cli_1", "appSecret": "appSecret1", "botName": "主助手", "groupAllowFrom": [ "ou_id1" ] }, "feishu-work": { "appId": "cli_2", "appSecret": "appSecret2", "botName": "工作助手", "groupAllowFrom": [ "ou_id2" ] }, }, "dmPolicy": "pairing" } }, "bindings": [ { "agentId": "main", "match": { "channel": "feishu", "accountId": "main" } }, { "agentId": "work", "match": { "channel": "feishu", "accountId": "feishu-work" #要与前面配置对应 } } ], 

注意事项:

  • 名称一定要对应,agentId对应,accountId也要对应
  • ou_id可以是相同(同一个人名下建立多个机器人),也可以不同(我就是这么干的)
请添加图片描述

效果就是这样。

请添加图片描述

回到Gateway的聊天窗口,就可以切换聊天的对象,我这有2个。(应该也有相关的配置的,找到之后更新)

请添加图片描述

批量增加机器人

一次性申请了6个机器人,确定好Agent的名称,让OpenClaw帮我完成配置。

  • BandBusiness,业务Agent
  • BandProjectMgr,项目经理Agent
  • BandProductMgr,产品经理Agent
  • BandSysDesign,系统设计Agent
  • BandCoder,系统开发Agent,严格来说,还可以继续拆分为前端、后端、安卓、iOS、鸿蒙等

BandTester,系统测试Agent
检查了一下,配置是对的,Agent的职责还做了扩展。重启openclaw gateway restart没问题。接下来需要给每个机器人添加事件,添加配对。

请添加图片描述


请添加图片描述

提示应用未建立长链接。原因是手工修改openclaw.json增加飞书渠道,并没有通过openclaw channels add增加。
发现在~/.openclaw/feishu/dedup少了些内容,但这并没有什么影响。
实测的总结是:必须在控制台完成对飞书机器人添加,才能起作用。而OpenClaw生成的openclaw.json还是对的,能让我的新机器人与Agent对应上。加上之后,还需要调整一下openclaw.json,删除错误的配置。
于是放心把其他的机器人都通过控制台添加上去,任务完美完成。

接下来我就可以创建一批智能体和机器人,并且让他们协同起来了。

缺点

飞书创建机器人的过程比较复杂,流程繁琐。好在我操作一遍之后,就可以按照之前的路径一直这样做下去。

多个飞书机器人名称包含大小写的问题

多个飞书账号时,名称中如果包含大小写,会遇到无法找到的问题。原因时飞书在处理的时候都改成了小写。为了避免类似问题,我将所有飞书的accountId改为小写。

多个Agent名称包含大小写的问题

当多个Agent相互调用的时候,我发现第一个Agent调用第二个Agent失败,仔细看聊天记录,发现OpenClaw把Agent的id全改为了小写。同样,为了规避此类问题,建议所有的Agent名称都时小写。
还可以在Agent的workspace名称发现一些端倪。
比如我的Agent名称为BandBusiness,系统自动分配的workspace名称为~/.openclaw/bandbusiness,全改为小写了。

关键词:OpenClaw 多智能体路由,飞书多机器人配置,OpenClaw bindings 绑定

Read more

【大作业-46】基于YOLO12的无人机(航拍)视角的目标检测系统

【大作业-46】基于YOLO12的无人机(航拍)视角的目标检测系统

基于YOLO12的无人机(航拍)视角的目标检测系统 🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳 【大作业-46】基于yolo12的航拍(无人机)视角目标检测与追踪系统 🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳🥳 各位小伙伴大家好,今天我们为大家带来的是基于无人机视角下的目标检测,主要是对常规的行人、车辆这些目标进行检测,并且接着这个机会我们对yolo12的新模块进行一下说明,和之前的内容一样,我们的教程中包含了标注好的数据集、训练好的yolov5、yolov8、yolo11以及yolo12的模型,还有一个配套的图形化界面。本次的数据集包含的类别如下: 0: pedestrian 行人 1: people 人 2: bicycle 自行车 3: car 汽车 4: van 货车 5: truck 卡车 6: tricycle 三轮车 7: awning-tricycle 遮阳篷三轮车 8: bus 公交车 9: motor 摩托车 以下是部分数据示例。

硬件-电源-VR多相电源深入解析

1. 引言 一块高性能服务器主板的CPU插槽周围,总是簇拥着一排排整齐的、覆盖着金属散热片的“小方块”。它们就属于VR多相电源的一部分,VR多相电源如同CPU的“专用心脏”,负责将来自电源的“粗犷”能量,转化为CPU所能接受的“精细”养分。本文主要介绍Buck多相电源。 2. VRM是什么?为什么需要“多相”? 2.1 VRM的核心使命:精准的“能量转换师” VRM,全称 Voltage Regulator Module(电压调节模块),其核心任务只有一个:将来自一次电源的电压(如+12V),高效、精准地转换为CPU、GPU等核心芯片所需的低电压(如0.8V~1.3V)和大电流(可达数百A)。 如果让数百安培的电流直接以1V电压从机箱电源传输到CPU,线路损耗将是灾难性的。因此,必须在CPU边上就近进行高效电压转换,这就是VRM存在的根本原因。 2.

DAMO-YOLO开发者案例:为教育机器人集成实时物体识别模块

DAMO-YOLO开发者案例:为教育机器人集成实时物体识别模块 基于阿里达摩院 TinyNAS 架构的高性能实时目标检测系统。结合自研赛博朋克美学界面,实现工业级识别能力与未来主义视觉体验的完美融合。 1. 项目背景与需求 教育机器人正在成为智慧教育的重要工具,但很多机器人缺乏真正的"视觉智能"。传统的物体识别方案要么速度太慢,要么准确率不够,无法满足实时交互的需求。 我们最近为一个教育机器人项目集成了DAMO-YOLO视觉系统,让机器人能够实时识别教室环境中的各种物体:从书本、文具到电子设备,甚至能识别学生的手势动作。这个案例展示了如何将先进的视觉AI技术落地到实际教育场景中。 2. DAMO-YOLO技术优势 2.1 高性能实时检测 DAMO-YOLO基于阿里达摩院的TinyNAS架构,这个设计让它在保持高精度的同时实现了极快的推理速度。在教育机器人场景中,这意味着: * 实时响应:处理一帧图像只需10毫秒左右,机器人可以流畅地与环境互动 * 高准确率:支持80种常见物体的识别,覆盖教室中的绝大多数物品 * 资源高效:即使在嵌入式设备上也能稳定运行,适合教

目标检测数据集——无人机视觉VisDrone数据集

目标检测数据集——无人机视觉VisDrone数据集

随着无人机技术的飞速发展,无人机在航拍、监控、农业、物流等领域的应用日益广泛。与此同时,无人机视角下的视觉任务,如目标检测、目标跟踪和场景理解,也成为了计算机视觉研究的热点。然而,相比传统的地面视角数据集,无人机视角下的图像具有高度变化、小目标密集、复杂背景等独特挑战,这对现有算法提出了更高的要求。 为了应对这些挑战并推动无人机视觉技术的发展,天津大学机器学习与数据挖掘实验室推出了 VisDrone数据集。作为一个大规模、标注精细的无人机视觉数据集,VisDrone 不仅涵盖了丰富的场景和多样化的目标类别,还为研究人员提供了一个极具挑战性的测试平台。无论是小目标检测的精度提升,还是密集场景下的鲁棒性优化,VisDrone 都成为了学术界和工业界不可或缺的资源。该数据集采集自中国14个不同城市,覆盖复杂城市场景、交通枢纽、密集人群等多种环境。 VisDrone官方Github下载渠道可点击访问: https://github.com/VisDrone/VisDrone-Dataset?tab=readme-ov-file 下载的数据集为VisDrone2019-DET-train