Openclaw高星开源框架:三省六部·用古代官制设计的 AI Agent 协作架构

Openclaw高星开源框架:三省六部·用古代官制设计的 AI Agent 协作架构

作者:cft0808
项目地址:https://github.com/cft0808/edict
|许可:MIT

概述

三省六部·Edict 是一个基于中国古代官制设计的 AI 多 Agent 协作架构。它把唐朝以来运行了一千多年的三省六部制搬到了 AI 世界,创建了一套具有分权制衡、专职审核、完全可观测特性的 Agent 协作系统。

项目目前 6.9k+ Stars,581 Fork,Star 增长很快。


核心设计思想

问题:为什么大多数 Multi-Agent 框架不好用?

当前主流的多 Agent 框架(CrewAI、AutoGen、LangGraph)通常采用「自由对话」模式:

Agent A → "Hey, 你来处理这个" Agent B → "好,我算一下" Agent A → "结果是这样" 

问题在于:

  • 不可控:Agent 之间聊什么你不知道
  • 不可复现:同样的输入,每次结果可能不同
  • 无法审计:不知道中间经历了什么
  • 难以干预:发现问题时已经晚了

解法:制度化协作

Edict 的思路是:「不要让他们自由发挥,而是要设计一套制度」。

三省六部制的核心是分权制衡

皇上(用户) ↓ 下旨 太子(分拣) ↓ 传旨 中书省(规划) ↓ 提交审核 门下省(审议)← 可以封驳 ↓ 准奏 尚书省(派发) ↓ 分配 六部(执行) ↓ 汇总 尚书省(回奏) ↓ 皇上(用户) 

这条路线上,每一个环节都有明确的职责,不能越级沟通,必须经过审核。这就是制度


架构详解

12 个 Agent 及其职责

部门Agent ID职责说明
太子taizi消息分拣判断是闲聊还是任务,闲聊直接回复,任务递交给中书省
中书省zhongshu规划中枢接旨后拆解为子任务,分配方案
门下省menxia审议把关审核中书省的方案,可以准奏或封驳(打回重做)
尚书省shangshu调度大脑派发任务,协调六部,汇总结果
户部hubu数据资源数据处理、报表、成本分析
礼部libu文档规范技术文档、API 文档
兵部bingbu工程实现代码开发、Bug 修复、代码审查
刑部xingbu安全合规安全扫描、合规检查
工部gongbu基础设施CI/CD、Docker、部署
吏部libu_hr人事管理Agent 注册、权限维护
早朝官zaochao情报枢纽每日新闻聚合、数据汇总

关键点:每个 Agent 有独立的 Workspace、独立的 Skills、可以独立配置 LLM 模型。

权限矩阵:严格的通信规则

不是谁想给谁发消息都可以。这张表定义了完整的权限:

From ↓ \ To → 太子 中书 门下 尚书 户 礼 兵 刑 工 吏 太子 — ✅ 中书省 ✅ — ✅ ✅ ✅ 门下省 ✅ ✅ ✅ 尚书省 ✅ ✅ ✅ — ✅ ✅ ✅ ✅ ✅ ✅ 六部+吏部 ✅ 
  • 太子只能->中书、门下
  • 中书->门下(必须审核)、尚书、户部
  • 门下只能->尚书
  • 尚书->所有六部+吏部
  • 六部之间、六部->其他部门(除尚书)均不可直接通信

这种设计避免了混乱的消息流,确保所有任务都经过审核。

任务状态机

待处理 → 中书规划中 → 门下审议中 → 已派发 → 执行中 → 待审查 → 已完成 ↑ ↓ └── 封驳(打回重做) └── 阻塞 Blocked 

9 种状态,每个状态转换都记录在案,形成完整的流转审计。


军机处看板:10 个功能面板

Edict 提供了一个名为「军机处」的 Web 看板(端口 7891),包含:

1. 旨意看板(Kanban)

任务按状态列展示,支持:

  • 省部过滤
  • 全文搜索
  • 心跳徽章(🟢活跃/🟡停滞/🔴告警)
  • 查看任务详情和完整流转链
  • 叫停 / 取消 / 恢复操作

2. 省部调度(Monitor)

  • 各状态任务数量可视化
  • 部门分布条形图
  • Agent 健康状态实时卡片

3. 奏折阁(Memorials)

  • 已完成任务自动归档
  • 五阶段时间线(圣旨→中书→门下→六部→回奏)
  • 一键复制为 Markdown

4. 旨库(Template Library)

9 个预设模板:

  • 周报生成
  • 代码审查
  • API 设计
  • 竞品分析
  • 数据报告
  • 博客文章
  • 部署方案
  • 邮件文案
  • 站会摘要

5. 官员总览(Officials)

  • Token 消耗排行榜
  • 活跃度、完成数、会话统计

6. 天下要闻(News)

  • 每日科技/财经资讯采集
  • 分类订阅 + 飞书推送

7-10. 模型配置、技能配置、小任务监控、上朝仪式


技术实现

后端:纯 Python 标准库

dashboard/server.py 基于 http.server,零依赖,同时提供 API 和静态文件服务。约 1200 行代码。

前端:React 18 + TypeScript + Vite + Zustand

13 个功能组件,完整的状态管理。Docker 镜像包含预构建版本。

数据同步

scripts/run_loop.sh 每 15 秒自动同步 OpenClaw 运行时数据到看板,显示倒计时。

Agent 配置

所有 Agent 的人格和工作流定义在 agents/<id>/SOUL.md,遵循 OpenClaw 的 SOUL.md 规范。

权限和路由

通过 openclaw.json 配置 Agent 之间的通信权限矩阵。Edict 的 install.sh 会自动写入这些配置。


与主流框架对比

特性CrewAIMetaGPTAutoGen三省六部
审核机制❌ 无⚠️ 可选⚠️ Human-in-loop✅ 专职门下省 · 可封驳
实时看板✅ Kanban + 时间线
任务干预✅ 叫停/取消/恢复
流转审计⚠️⚠️✅ 完整奏折存档
Agent 健康监控✅ 心跳+活跃度
热切换模型✅ 看板内一键切换
技能管理✅ 查看/添加 Skills
部署难度(Docker 一键)

核心差异:制度化 vs 自由协作。Edict 强调可观测、可干预、可审计


快速体验

Docker(最快)

docker run -p7891:7891 cft0808/edict 

访问 http://localhost:7891。Docker 镜像包含预填充的演示数据。

注意:Windows 用户需要 WSL2 后端或 Docker Desktop with WSL2。

完整安装(需要 OpenClaw)

  1. 前置条件
    • OpenClaw 已安装并运行
    • Python 3.9+
    • Node.js 18+(可选,用于构建前端)
    • macOS 或 Linux(Windows 推荐 WSL2)
  2. 克隆并安装
git clone https://github.com/cft0808/edict.git cd edict chmod +x install.sh && ./install.sh 

install.sh 会自动:

  • 创建 12 个 Agent 的 Workspace
  • 写入 SOUL.md(人格、工作流、数据清洗规则)
  • 注册 Agent 和权限矩阵到 openclaw.json
  • 构建 React 前端(如果有 Node.js)
  • 初始化数据目录
  • 重启 OpenClaw Gateway
  1. 启动服务
# 终端 1:数据刷新bash scripts/run_loop.sh # 终端 2:看板服务器 python3 dashboard/server.py 
  1. 访问
    http://localhost:7891

使用流程

1. 向 AI 下旨

通过 Feishu/Telegram/Signal 给中书省发送任务,例如:

帮我设计一个用户注册系统,要求: 1. RESTful API(FastAPI) 2. PostgreSQL 数据库 3. JWT 鉴权 4. 完整测试用例 5. 部署文档 

2. 坐好,看戏

过程自动流转:

  1. 中书省:接旨,规划子任务分配方案
  2. 门下省:审议方案,通过或封驳(打回)
  3. 尚书省:准奏,派发给兵部+工部+礼部等
  4. 六部:并行执行,进度实时更新
  5. 尚书省:汇总结果,回奏给你

全程在军机处看板可视,随时可以叫停或调整。

2. 使用圣旨模板

看板 → 旨库 → 选择模板 → 填写参数 → 下旨。

适合标准化任务(周报、代码审查、API 设计等)。

3. 自定义 Agent

编辑 agents/<agent_id>/SOUL.md 即可修改人格、职责、输出规范。

4. 添加 Skills

方式一:看板 UI
看板 → 技能配置 → 添加远程 Skill → 输入 Agent、Skill 名称、GitHub URL → 确认

方式二:CLI

python3 scripts/skill_manager.py add-remote \--agent zhongshu \--name code_review \--source https://raw.githubusercontent.com/openclaw-ai/skills-hub/main/code_review/Skill.md \--description"代码审查技能"

方式三:API

curl-X POST http://localhost:7891/api/add-remote-skill \-H"Content-Type: application/json"\-d'{"agentId":"zhongshu","skillName":"code_review","sourceUrl":"...","description":"..."}'

官方 Skills Hub:https://github.com/openclaw-ai/skills-hub


项目结构

edict/ ├── agents/ # 12 个 Agent 的人格模板 ├── dashboard/ # 看板前端 + 后端服务器 ├── scripts/ # 各种工具脚本(数据同步、技能管理、新闻采集等) ├── data/ # 运行时数据(gitignored) ├── docs/ # 详细文档 ├── tests/ # 端到端测试(17 个断言) ├── install.sh # 一键安装脚本 ├── docker-compose.yml # Docker Compose 配置 └── README.md 

文档资源

项目文档非常详细,强烈推荐阅读:

  1. 任务分发流转完整架构
    • 9500+ 字,必读
    • 详细讲解业务设计和技术实现
    • 9 大状态机、权限矩阵、4 阶段调度、Session JSONL 数据融合
    • 故障场景与恢复机制
  2. 远程 Skills 资源管理指南
    • 如何从 GitHub 添加 Skills
    • Skills 文件规范
    • 版本管理
  3. 快速上手指南
  4. ROADMAP.md
    • Phase 1 已完成(核心架构)
    • Phase 2 进行中(御批模式、功过簿、急递铺、国史馆)
    • Phase 3 规划(Docker Compose、移动端、ClawHub 上架)

真实案例

examples/ 目录包含完整的使用记录:

每个案例都包含:完整旨意 → 中书规划 → 门下审核 → 各部执行 → 最终奏折。


优缺点分析

✅ 优点

  1. 制度可靠:分权制衡+专职审核,输出质量可控
  2. 完全可观测:流转链完整记录,随时查看
  3. 实时干预:可以叫停、取消、恢复任务
  4. 架构清晰:Agent 职责明确,权限矩阵严格
  5. 部署简单:Docker 一键启动
  6. 生态完善:技能管理、新闻推送、模板库、看板一应俱全

⚠️ 注意点

  1. 依赖 OpenClaw:必须安装并运行 OpenClaw Gateway
  2. 平台限制:官方只支持 macOS/Linux,Windows 需 WSL2
  3. 学习成本:需要理解三省六部的概念和权限规则
  4. 灵活性较低:严格的通信限制可能不适合需要自由对话的场景
  5. 中文项目:文档和界面主要是中文,国际化有限

适用场景

Edict 适合:

  • 需要高质量、可审计输出的任务:技术方案设计、代码审查、安全评估
  • 企业环境:需要制度化管理、权限控制、流程追踪
  • 长期运行:作为团队工作流的一部分持续使用
  • 模型切换频繁:不同部门用不同 LLM(看板内一键切换)

不适合:

  • 创意型任务:需要 Agent 自由讨论、头脑风暴的场景
  • 快速原型:设置权限矩阵可能太重
  • 单次性任务:杀鸡用牛刀

结语

三省六部制在中国运行了 1400 年,从隋唐到清末,历经无数王朝更迭,证明了一套好的制度设计比自由发挥更稳定。

Edict 把这个思想移植到了 AI Agent 世界。它的价值不在于技术有多新颖,而在于用制度解决问题

如果你受够了 Agent「聊完就忘、结果不可控」的状态,想体验一下有审核、有流程、可干预的多 Agent 协作,可以试试 Edict。


链接

  • GitHub: https://github.com/cft0808/edict
  • Demo: docker run -p 7891:7891 cft0808/edict
  • 文档: https://github.com/cft0808/edict/blob/main/docs/
  • OpenClaw: https://openclaw.ai
  • Skills Hub: https://github.com/openclaw-ai/skills-hub

本文为技术介绍,项目版权归 cft0808 所有,遵循 MIT 许可。

Read more

一键换装魔法:基于ComfyUI工作流的Stable Diffusion服装替换指南

文章目录 * 一、Stable Diffusion与ComfyUI工作流基础 * 二、工作流获取:从社区到管理器一键部署 * 途径1:专业工作流社区(推荐新手) * 途径2:ComfyUI Manager(高阶扩展) * 三、换装工作流详解:以ComfyUI为例 * 工作流结构拆解 * 关键节点说明 * 模型准备清单 * 四、实战演示:一键换衣全流程 * 五、进阶应用:跨次元换装与3D生成 * 六、常见问题排查 * 结语:工作流的未来 Stable Diffusion作为当前最热门的开源文生图模型,在图像生成领域掀起了一场革命。其最新版本Stable Diffusion 3 Medium(2024年发布)包含20亿参数,在图像质量、复杂提示理解及资源效率方面实现显著突破,能生成细节逼真、色彩鲜艳且光照自然的图像。而ComfyUI作为基于节点的工作流界面,通过可视化连接处理模块,为复杂任务(如图像重绘、视频生成、服装替换等)提供了灵活且可复现的解决方案。

记录一下使用llama.cpp过程中遇到的一些问题和解决方法

写在前面: 什么未操作即同意的条款?我写的东西免费分享也不是你能随意搬运的理由啊 特此声明,若该文章被搬运到除ZEEKLOG(www.ZEEKLOG.net)以外的其他社区如2048 AI社区,则视为该社区同意将所有收益无偿捐赠给我所有 此外,我写的所有分享都是免费的,如有VIP文章也是ZEEKLOG干的,请私信我修改成免费 起因:使用LMStudio调用AI模型时发现显存占用率一直不超过80%,询问AI解决办法无果后一怒之下换用llama.cpp,遇到了一堆AI解决不了的问题,遂记录 llama.cpp下载地址如下 https://github.com/ggml-org/llama.cpp/releases 以防万一 我老年痴呆说一下如何使用llama.cpp调用模型,把下面的代码保存成bat,放在和llama-server.exe同目录下,然后运行这个bat(确保模型位置选对,GPU_LAYERS和THREADS根据机器能力) @echo off setlocal set "MODEL_PATH=F:\Models\Yakyu&

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

LFM2.5-1.2B-Thinking多场景落地:Ollama支持下的智能写作、代码辅助、学习助手实战

LFM2.5-1.2B-Thinking多场景落地:Ollama支持下的智能写作、代码辅助、学习助手实战 1. 为什么选择LFM2.5-1.2B-Thinking? 如果你正在寻找一个既强大又轻量的AI助手,LFM2.5-1.2B-Thinking绝对值得关注。这个模型虽然只有12亿参数,但性能却能与大得多的模型相媲美,真正实现了"小而美"的设计理念。 最吸引人的是它的部署便利性——通过Ollama平台,你只需要几次点击就能开始使用。不需要复杂的配置,不需要昂贵的硬件,甚至不需要深厚的技术背景。无论你是想提升写作效率、获得编程帮助,还是需要一个随时可用的学习伙伴,这个模型都能提供实实在在的价值。 我亲自测试了这个模型在不同场景下的表现,发现它在保持响应速度的同时,还能提供相当不错的输出质量。内存占用不到1GB,在普通电脑上就能流畅运行,这让我对设备端AI的未来更加期待。 2. 快速上手:Ollama部署指南 2.1 找到模型入口 使用LFM2.5-1.2B-Thinking的第一步是找到正确的入口。打开Ollama平台后,你会看到一个清晰的界面。在模型展示区域,很容易