ReAct Agent 与 Agent 编排:从单 Agent 闭环到多 Agent 协作(纯享版)

ReAct Agent 与 Agent 编排:从单 Agent 闭环到多 Agent 协作(纯享版)

ReAct Agent 与 Agent 编排:从单 Agent 闭环到多 Agent 协作


本篇文章,大概会花费你10分钟时间,带你对Agent进行更加深入的了解。

目录:

一、这 10 分钟到底会讲什么

开场:

今天我只讲一条主线:
单个 Agent 怎么跑起来,多 Agent 又是怎么被编排起来的。
前者的核心是 ReAct 闭环,后者的核心是 Agent orchestration(编排)。
而 CloudWeGo Eino ADK,给这两件事提供了工程化落地方式。

什么是编排?
广义上来讲:只要你在组织多个执行单元的顺序、依赖、分工、路由,这都叫编排。

  • 单个 Agent 内部的多节点流程编排,算编排
  • 多个 Agent 之间的协作编排,也算编排

而今天编排的主角是,多Agent之间的协作。


二、我将会分8节来讲


第 1 节:为什么要讲 ReAct 和 Agent 编排

时间:1 分钟

这一页我只说一个问题:

“能对话”为什么不等于“能上线”?

原因:

很多人第一次接触 Agent,会觉得它无非就是 Prompt + Model + Tool
但真到生产环境中,这些是远远不够的。
因为一个能上线的 Agent,不只是要会回答,还要会:调工具传状态控制流程中断恢复输出可观测的执行过程

所以今天这场分享,其实不是在讲“一个聪明的模型”,
而是在讲“一个可治理的 Agent 系统”。

第 2 节:先讲清 Agent 的最小运行时骨架

时间:1 分钟

这一页讲三个词:

  • Agent
  • Runner
  • AgentEvent

可以这样说:

在 Eino ADK 里,我觉得最重要的不是某个具体 Agent,而是它背后的运行时骨架。

Agent 解决的是:谁来执行任务
Runner 解决的是:这个任务怎么被统一托管起来
AgentEvent 解决的是:执行过程中发生了什么

这意味着,Agent 不再只是一次性返回一个字符串,
而是持续地产出事件流:
可能是模型输出、可能是 tool call、可能是 transfer,也可能是 interrupt。

所以 Eino 的切入点很精准:
把 Agent 运行过程也当成一等公民。

这里有一点可以确定:

后面我们讲 ReAct 和编排,其实都建立在这套运行时骨架上。

第 3 节:ReAct 到底是什么

时间:1.5 分钟

本页是核心页,
所以需要大家着重注意:

ReAct 的核心不是“某种 prompt 技巧”,
而是一种闭环范式:
Reason → Act → Observe

也就是:模型先思考下一步怎么做然后调用工具去拿外部信息再把工具结果喂回模型继续推理

这个闭环会不断重复,直到模型不再产生 tool call,才结束。
在这里插入图片描述

所以这就是ReAct最关键的价值:

它为什么重要?
因为它把模型的推理,锚定在了外部事实之上。
以前模型是“自己想”;
现在模型是“边查边想”。
所以它的可解释性更强,幻觉风险也更低。

这里抛一个面试点:

面试里经常会问两个控制点:
终止条件是什么?
答:模型不再产生 tool call。
为什么要有 MaxIterations/MaxStep?
答:防止无限循环,控制成本和可用性。

若这一页理解透了,则后面所有内容都顺了。
切记,所谓的范式,不过是一套方法模板罢了,没有大家想象的高大上。


第 4 节:Eino 里 ReAct 是怎么落地的

时间:1.5 分钟

这页我不会讲太细的源码,而是重点讲工程表达。

可以这样说:

在 Eino 里,ReAct 不是停留在概念层,而是被明确表达成了一个执行闭环。

最直观的理解就是:
ChatModel 和 ToolsNode 之间形成了一个环。

模型先输出 tool call,工具执行后把 observation 写回状态,再回到模型继续推理。
这个过程一直循环,直到没有 tool call,或者命中直接结束条件。

在 ADK 里,这个闭环最典型的封装就是 ChatModelAgent
它本质上就是一个工程化的 ReAct Agent。

它帮你处理了很多工程问题,比如:工具调用循环最大迭代次数某些工具执行后直接返回显式退出协议

记住这句很关键的话:

因此,我更愿意把 ChatModelAgent 理解成:
不是“一个聊天模型”,而是“一个带 ReAct 运行时的 Agent 封装”。

这一点,真的很加分。


第 5 节:Agent 编排到底在编排什么

时间:1 分钟

本页承上启下,非常重要。

可以这样说:

如果 ReAct 解决的是“一个 Agent 内部怎么闭环”,
那 Agent 编排解决的就是:
多个 Agent 之间怎么协作。

所以这两件事不是同一个层面的问题。ReAct 关注的是单 Agent 内部:推理、行动、观察Orchestration 关注的是多 Agent 外部:分工、路由、状态共享、控制权转移

也就是说:
ReAct 是单体闭环,编排是群体协作。

然后直接引到后面三种模式:

在 Eino ADK 里,最值得讲的三种编排模式分别是:Workflow AgentsSupervisorPlan-Execute

第 6 节:三种典型编排模式,一次讲清

时间:2 分钟

这一页很朴素,你可以直接把这三种编排当成 “三兄弟”

第一种:Workflow Agents

可以这样说:

Workflow Agents 是确定性编排。
路怎么走,是代码提前写死的。
比如顺序执行、循环执行、并行执行。

它的优点是:可预测、易审计、易测试。
它的缺点是:灵活性不如模型自主决策。

第二种:Supervisor

Supervisor 是中心化调度。
也就是有一个总控 Agent,负责把任务分配给不同子 Agent。
子 Agent 负责干活,总控负责继续判断下一步。

它更像一个项目经理模式。

第三种:Plan-Execute

Plan-Execute 是“先规划,再执行,再重规划”。
它适合长任务、复杂任务。
因为它不是边走边猜,而是先把任务拆成步骤,再一步一步做。

所以它比纯 ReAct 更适合长链路研究型任务。

然后你做个总收束:

这三种模式,本质上对应三种不同的控制哲学:Workflow:代码决定流程Supervisor:中心调度决定流程Plan-Execute:规划结果决定流程

第 7 节:几个最容易讲混的边界

时间:2.5 分钟

这一页不贪多,只讲3个最有价值的。

边界 1:Transfer vs AgentAsTool

Transfer 是控制权交接。
我把任务交给你,你接着往下做。

AgentAsTool 是工具式调用。
我调用你,等你返回结果,然后我继续处理。

所以一个是“交棒”,一个是“外包”。

边界 2:BreakLoop vs Exit

BreakLoop 是局部退出。
只跳出当前 Loop。

Exit 是全局终止。
后面的 Agent 都不再执行。

边界 3:ADK Workflow Agents ≠ compose.Workflow

若这个搞混了,将会非常致命

ADK 里的 Workflow Agents,是多 Agent 的编排模式。
compose.Workflow 是底层 DAG 编排框架。

后者强调的是数据流映射,而且它不支持环。
所以 ReAct 这种闭环,不能拿 compose.Workflow 去表达,
得用 Graph 或 ChatModelAgent 这种方式去做。

第 8 节:收尾

时间:0.5 分钟

这 10 分钟,如果只记住一句话,我希望是这句:

ReAct 解决的是单 Agent 如何形成“推理—行动—观察”的闭环;
Agent 编排解决的是多个 Agent 如何分工、协作和治理。
Eino ADK 的价值,就在于把这两件事都做成了可工程化落地的运行时。


所以从面试视角看,真正重要的不是你会不会调一个模型,
而是你能不能讲清:一个 Agent 为什么能跑起来多个 Agent 为什么能协作起来它们为什么能被治理、被中断、被恢复、被追踪

三、总结

本篇文章,以下几点最为重要。

  • ReAct 是单 Agent 闭环
  • 本篇说的编排是多 Agent 协作
  • Workflow / Supervisor / Plan-Execute 是三种不同控制哲学
  • ADK Workflow Agents 和 compose.Workflow 不是一回事
所以从工程视角看,Agent 不只是“模型会说话”,
而是“模型、工具、状态和控制流”被组织成了一个可治理系统。
ReAct 是这个系统里单 Agent 的闭环,编排是多个 Agent 的协作方式。

Read more

【Matlab】最新版2025a发布,深色模式、Copilot编程助手上线!

【Matlab】最新版2025a发布,深色模式、Copilot编程助手上线!

文章目录 * 一、软件安装 * 1.1 系统配置要求 * 1.2 安装 * 二、新版功能探索 * 2.1 界面图标和深色主题 * 2.2 MATLAB Copilot AI助手 * 2.3 绘图区升级 * 2.4 simulink * 2.5 更多 🟠现在可能无法登录或者注册mathworks(写这句话的时间:2025-05-20): 最近当你登录或者注册账号的时候会显示:no healthy upstream,很多人都遇到了这个问题,我在reddit上看到了mathworks官方的回答:确实有这个问题,正在恢复,不知道要几天咯,大家先用旧版本吧。 — 已经近10天了,原因是:遭受勒索软件攻击 延迟一个月,终于发布了🤭。 一、软件安装 1.1

DeepSeek-R1-Distill-Llama-8B部署教程:Docker Compose编排多模型推理服务

DeepSeek-R1-Distill-Llama-8B部署教程:Docker Compose编排多模型推理服务 你是不是也遇到过这样的问题:想快速试用一个新模型,却卡在环境配置上?装依赖、配CUDA、调参数……半天过去,连第一句“你好”都没跑出来。今天这篇教程,就带你绕过所有坑,用最轻量的方式——Docker Compose,把 DeepSeek-R1-Distill-Llama-8B 这个实力派小钢炮模型稳稳跑起来。它不是玩具模型,而是在AIME数学竞赛、MATH-500、CodeForces等硬核榜单上真实打榜的蒸馏成果,8B参数却跑出接近70B级的推理表现。更重要的是,整个过程不需要你装Python环境、不碰CUDA驱动、不改一行源码,一条命令启动,开箱即用。 我们不讲抽象概念,只聚焦三件事:怎么让模型跑起来、怎么让它听懂你的话、怎么把它变成你手边随时能调用的服务。无论你是刚接触大模型的开发者,还是想快速验证想法的产品同学,只要你会用终端,就能照着做,10分钟内看到结果。 1. 为什么选 DeepSeek-R1-Distill-Llama-8B? 1.1 它不是“又一

Whisper语音识别终极提速指南:8倍性能飞跃的完整解决方案

Whisper语音识别终极提速指南:8倍性能飞跃的完整解决方案 【免费下载链接】whisper-large-v3-turbo 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-large-v3-turbo 在数字化浪潮席卷各行各业的今天,语音识别的效率瓶颈成为了许多企业和个人用户面临的实际痛点。传统语音转写工具要么速度缓慢,要么精度不足,直到whisper-large-v3-turbo的出现,才真正实现了速度与精度的完美平衡。 🎯 效率革命:从等待到实时 想象一下这样的场景:一段1小时的会议录音,传统模型需要15-20分钟处理,而whisper-large-v3-turbo仅需2-3分钟即可完成。这种8倍速的性能提升,彻底改变了语音处理的工作流程。 核心技术突破: * 智能层数优化:解码层从32层精简至4层 * 算法补偿机制:精度损失控制在0.3%以内 * 自适应处理:根据音频特征动态调整处理策略 🚀 快速上手:三步部署方案 环境要求: * 操作系统:Ubuntu 20.04+ / Windo

AI辅助编程的边界探索:当Copilot学会写测试

AI辅助编程的边界探索:当Copilot学会写测试

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI辅助编程的边界探索:当Copilot学会写测试 🚀 * 1. 从“写代码”到“验代码”:AI的新战场 ⚔️ * 场景设定:一个简单的支付网关模拟器 💳 * 2. 初级实验:AI能写出“Happy Path”吗? ✅ * 3. 进阶实验:Mocking 与 外部依赖 🎭 * 4. 陷阱与幻觉:AI写测试时犯的那些错 🤪 * 案例 A:永远不会错的测试 * 案例 B:永远跑不通的断言 * 案例 C:复杂集成测试的无力 * 5. 人机协作:重新定义测试工作流 🤝 * 实践技巧:如何高效地让AI写测试?