openclaw多Agent和多飞书机器人配置

增加Agent多个飞书机器人

一个Agent尽量只用一个飞书机器人配置


一:先增加新的agent

# 创建新的Agent,命名为new-agnet openclaw agents add new-agnet # 查看创建结果 openclaw agents list 

二:新的agent与新的飞书链接

配置agnet下的channels:

在命令行输入

# 配置new-agnet机器人(替换为实际App ID和App Secret) openclaw config set agents.new-agnet.channels.feishu.appId "你的new-agnet 飞书 App ID" openclaw config set agents.new-agnet.channels.feishu.appSecret "你的new-agnet 飞书 App Secret" # 重启服务生效 openclaw gateway restart 

形成的openclawJSON文件如下:若不对的话,手动配置,主要是accounts下的内容,查看仔细。

 "channels": { "feishu": { "enabled": true, "domain": "feishu", "groupPolicy": "allowlist", "accounts": { "main": { "appId": "cli_1", "appSecret": "appSecret1", "botName": "主助手", "groupAllowFrom": [ "ou_id1" ] }, "new-agent": { "appId": "cli_2", "appSecret": "appSecret2", "botName": "工作助手", "groupAllowFrom": [ "ou_id2" ] }, }, "dmPolicy": "pairing" } }, 
绑定agnet与channels的关系
# 绑定 agent 到指定飞书账号 openclaw agents bind --agent <agentId> --bind feishu:<accountId> # 示例 openclaw agents bind --agent main --bind feishu:main openclaw agents bind --agent new-agnet --bind feishu:new-agent 

JSON文件应显示如下

 "bindings": [ { "agentId": "main", "match": { "channel": "feishu", "accountId": "main" } }, { "agentId": "work", "match": { "channel": "feishu", "accountId": "new-agent" #要与前面配置对应 } } ], 

三:重启gateway

openclaw gateway restart 
常见问题:
一:发送消息无法回复:注意添加长连接

二:飞书配置:APP ID 和密钥

三:401:token配置

四:使用新的飞书应用,不要一个飞书应用绑定多个Agent

Read more

旧电脑秒变 AI 员工:OpenClaw 本地部署教程(含环境配置 + 插件开发 + 常见坑)

旧电脑秒变 AI 员工:OpenClaw 本地部署教程(含环境配置 + 插件开发 + 常见坑)

前言 本文基于最新OpenClaw版本编写,适配电脑低配置场景(最低2vCPU+2GiB内存+40GiB SSD),兼容Windows 10/11(优先WSL2)、Ubuntu 20.04+系统,全程纯操作指令,覆盖环境配置、本地部署、插件开发、高频坑排查。核心解决部署卡顿、国内网络适配、插件开发无思路、报错无法排查四大痛点,全程适配国内网络(国内镜像源)、国内大模型(通义千问、阿里云百炼等),无需海外代理,可稳定运行实现自动化办公(文件处理、IM对接、任务调度等)。 一、前置准备(适配优化) 1.1 硬件要求(最低适配) * CPU:Intel i3 4代+/AMD Ryzen 3 2000+(支持虚拟化,

从零部署 Ollama + Qwen 3.5 + OpenClawbot:在本地跑起来你的免费 AI 助手

这篇文章只干一件事: 帮你在一台机器上,把 Ollama + Qwen 3.5 + OpenClaw(OpenClawbot) 整套环境部署起来,并验证能正常聊天。 不讲太多概念,更多是命令 + 配置 + 排错,适合你边看边敲。 一、整体架构先说清楚 这一套技术栈里,各组件的分工是: * Ollama:本地大模型运行引擎,相当于“模型服务端” * Qwen 3.5:具体的大模型(如 qwen3.5-0.8b),在 Ollama 里跑 * OpenClaw / OpenClawbot:在上面封一层“智能代理 + 多通道机器人”(终端、Telegram、后面你也可以接微信等) 简单理解为: 你/用户  →  OpenClawbot  →  Ollama API(http:

【前沿解析】2026年3月29日:AI推理效率双重突破——谷歌TurboQuant内存压缩与RWKV-6开源重构大模型部署范式

当百万级上下文成为AI应用标配,当边缘设备渴求智能部署,内存墙与算力瓶颈正成为制约AI规模化落地的最后枷锁。2026年3月29日,两大技术突破同步到来:谷歌研究院发布TurboQuant算法,将KV缓存内存占用压缩6倍、速度提升8倍;RWKV开源基金会宣布RWKV-6 1.6B模型正式开源,线性复杂度架构打破Transformer二次方魔咒。这不仅是技术的双重突破,更是AI从实验室走向产业、从云端下沉到终端的范式革命。 引言:效率革命的双引擎——内存压缩与架构创新 2026年3月,AI行业迎来了标志性的效率拐点。在算力增长曲线趋缓、摩尔定律失效的背景下,通过算法优化提升现有硬件效能成为唯一可行路径。谷歌TurboQuant与RWKV-6开源,恰如效率革命的双引擎,从两个维度同时突破传统瓶颈: * TurboQuant:针对大模型推理最核心的内存瓶颈——KV缓存,通过PolarQuant坐标变换与QJL误差校正,实现3-bit量化下的零精度损失,实测内存占用降低83%、注意力计算速度提升8倍 * RWKV-6:基于线性复杂度的时间序列混合架构,在保持强大序列建模能

2026年3月20日技术洞察:AI编程的现实与未来,从SWE-bench到AI面试官

嘿,各位小伙伴们,早上好!今天咱们来聊聊AI编程这个越来越"热"的话题。不知道你们有没有发现,现在不管是写代码、面试还是做代码审查,AI的影子越来越多了?今天我就给大家整理了一波最新的技术资讯,一起来看看2026年的AI编程世界变成啥样了。 今日技术资讯速递 1. SWE-bench评测:谁是真正的代码王者? 来源:ZEEKLOG《2026大模型选型指南:从SWE-bench评测看真相》 最近SWE-bench的评测结果出来了,这可是衡量大模型代码能力的"金标准"。你知道它跟传统的代码评测有啥不一样吗?SWE-bench测的是真实软件工程的完整闭环——从理解bug描述,到在几万行的代码库里定位问题,再到编写补丁修改代码,最后还要通过所有测试、不引入新bug。 2026年1月的最新成绩单: * Claude Opus 4.5:80.9% ✅(目前唯一突破80.9%的模型) * GPT-5.2:80.0% ✅(紧追不舍,数学推理能力拉满)