openclaw多Agent和多飞书机器人配置

增加Agent多个飞书机器人

一个Agent尽量只用一个飞书机器人配置


一:先增加新的agent

# 创建新的Agent,命名为new-agnet openclaw agents add new-agnet # 查看创建结果 openclaw agents list 

二:新的agent与新的飞书链接

配置agnet下的channels:

在命令行输入

# 配置new-agnet机器人(替换为实际App ID和App Secret) openclaw config set agents.new-agnet.channels.feishu.appId "你的new-agnet 飞书 App ID" openclaw config set agents.new-agnet.channels.feishu.appSecret "你的new-agnet 飞书 App Secret" # 重启服务生效 openclaw gateway restart 

形成的openclawJSON文件如下:若不对的话,手动配置,主要是accounts下的内容,查看仔细。

 "channels": { "feishu": { "enabled": true, "domain": "feishu", "groupPolicy": "allowlist", "accounts": { "main": { "appId": "cli_1", "appSecret": "appSecret1", "botName": "主助手", "groupAllowFrom": [ "ou_id1" ] }, "new-agent": { "appId": "cli_2", "appSecret": "appSecret2", "botName": "工作助手", "groupAllowFrom": [ "ou_id2" ] }, }, "dmPolicy": "pairing" } }, 
绑定agnet与channels的关系
# 绑定 agent 到指定飞书账号 openclaw agents bind --agent <agentId> --bind feishu:<accountId> # 示例 openclaw agents bind --agent main --bind feishu:main openclaw agents bind --agent new-agnet --bind feishu:new-agent 

JSON文件应显示如下

 "bindings": [ { "agentId": "main", "match": { "channel": "feishu", "accountId": "main" } }, { "agentId": "work", "match": { "channel": "feishu", "accountId": "new-agent" #要与前面配置对应 } } ], 

三:重启gateway

openclaw gateway restart 
常见问题:
一:发送消息无法回复:注意添加长连接

二:飞书配置:APP ID 和密钥

三:401:token配置

四:使用新的飞书应用,不要一个飞书应用绑定多个Agent

Read more

AI写作提示词实战:从设计原则到工程化落地

快速体验 在开始今天关于 AI写作提示词实战:从设计原则到工程化落地 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AI写作提示词实战:从设计原则到工程化落地 最近在项目里折腾AI写作生成,发现提示词(prompt)设计真是个技术活。明明感觉已经把需求写清楚了,AI却总像理解能力忽高忽低的小助理——有时惊艳,有时跑偏。经过几个月的实战踩坑,终于总结出一套结构化设计方法,

小白也能用的AI绘画神器:Z-Image i2L快速入门指南

小白也能用的AI绘画神器:Z-Image i2L快速入门指南 你是不是也试过很多AI绘画工具,结果不是要注册账号、等排队,就是生成一张图要花好几分钟,还担心图片被传到服务器上?今天要介绍的这个工具,不用联网、不传数据、不卡显存,打开就能画——而且操作简单到连手机都能点着玩。 它就是⚡ Z-Image i2L(DiffSynth Version),一个真正为普通人设计的本地文生图工具。没有复杂命令,没有报错黑屏,更不需要懂“LoRA”“ControlNet”这些词。只要你能打字,就能生成属于自己的高清图像。 这篇文章不讲原理、不堆参数,只说三件事: 它到底有多简单? 你第一次点开界面该做什么? 怎么调几个关键设置,让生成效果从“还行”变成“哇!” 全程零门槛,10分钟上手,现在就开始。 1. 为什么说它是“小白友好型”AI绘画工具? 很多人一听到“本地部署”“Diffusers框架”“BF16精度”,下意识就觉得:

Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案

【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 摘要 本文全面解析轻量级大模型推理框架 Llama.cpp,详细讲解其在 Windows(Winget)、Linux、macOS 三大平台的安装步骤,针对新手优化了模型获取、文件整理、可视化部署的全流程,涵盖命令行交互、OpenAI

检索大赛 实验1 文心一言 文心4.5实验结果

基础 以下是近三年(2021-2023)提出的基于大语言模型(LLM)的漏洞检测技术相关文献的列举与分析: 一、2023年文献 1. 《Vulnerability Detection Using Large Language Models: A Survey》 * 作者:未具体列出(多篇综述类文献可能涉及) * 内容概述:该文献(或类似综述)可能全面回顾了基于LLM的漏洞检测技术的最新进展,包括技术原理、应用场景、挑战与未来趋势。它可能详细分析了LLM在代码理解、模式识别、异常检测等方面的优势,并探讨了如何将这些优势应用于漏洞检测中。 2. 《Large Language Models for Automated Vulnerability Detection in Source Code》 * 作者:具体作者可能因文献来源不同而有所差异 * 内容概述:该文献可能提出了一种基于LLM的自动化源代码漏洞检测方法。它可能详细描述了如何利用LLM对源代码进行语义分析,识别潜在的安全漏洞,并通过实验验证了该方法的有效性和准确性。 3.