ReAct Agent 与 Agent 编排:从单 Agent 闭环到多 Agent 协作(纯享版)

ReAct Agent 与 Agent 编排:从单 Agent 闭环到多 Agent 协作(纯享版)

ReAct Agent 与 Agent 编排:从单 Agent 闭环到多 Agent 协作


本篇文章,大概会花费你10分钟时间,带你对Agent进行更加深入的了解。

目录:

一、这 10 分钟到底会讲什么

开场:

今天我只讲一条主线:
单个 Agent 怎么跑起来,多 Agent 又是怎么被编排起来的。
前者的核心是 ReAct 闭环,后者的核心是 Agent orchestration(编排)。
而 CloudWeGo Eino ADK,给这两件事提供了工程化落地方式。

什么是编排?
广义上来讲:只要你在组织多个执行单元的顺序、依赖、分工、路由,这都叫编排。

  • 单个 Agent 内部的多节点流程编排,算编排
  • 多个 Agent 之间的协作编排,也算编排

而今天编排的主角是,多Agent之间的协作。


二、我将会分8节来讲


第 1 节:为什么要讲 ReAct 和 Agent 编排

时间:1 分钟

这一页我只说一个问题:

“能对话”为什么不等于“能上线”?

原因:

很多人第一次接触 Agent,会觉得它无非就是 Prompt + Model + Tool
但真到生产环境中,这些是远远不够的。
因为一个能上线的 Agent,不只是要会回答,还要会:调工具传状态控制流程中断恢复输出可观测的执行过程

所以今天这场分享,其实不是在讲“一个聪明的模型”,
而是在讲“一个可治理的 Agent 系统”。

第 2 节:先讲清 Agent 的最小运行时骨架

时间:1 分钟

这一页讲三个词:

  • Agent
  • Runner
  • AgentEvent

可以这样说:

在 Eino ADK 里,我觉得最重要的不是某个具体 Agent,而是它背后的运行时骨架。

Agent 解决的是:谁来执行任务
Runner 解决的是:这个任务怎么被统一托管起来
AgentEvent 解决的是:执行过程中发生了什么

这意味着,Agent 不再只是一次性返回一个字符串,
而是持续地产出事件流:
可能是模型输出、可能是 tool call、可能是 transfer,也可能是 interrupt。

所以 Eino 的切入点很精准:
把 Agent 运行过程也当成一等公民。

这里有一点可以确定:

后面我们讲 ReAct 和编排,其实都建立在这套运行时骨架上。

第 3 节:ReAct 到底是什么

时间:1.5 分钟

本页是核心页,
所以需要大家着重注意:

ReAct 的核心不是“某种 prompt 技巧”,
而是一种闭环范式:
Reason → Act → Observe

也就是:模型先思考下一步怎么做然后调用工具去拿外部信息再把工具结果喂回模型继续推理

这个闭环会不断重复,直到模型不再产生 tool call,才结束。
在这里插入图片描述

所以这就是ReAct最关键的价值:

它为什么重要?
因为它把模型的推理,锚定在了外部事实之上。
以前模型是“自己想”;
现在模型是“边查边想”。
所以它的可解释性更强,幻觉风险也更低。

这里抛一个面试点:

面试里经常会问两个控制点:
终止条件是什么?
答:模型不再产生 tool call。
为什么要有 MaxIterations/MaxStep?
答:防止无限循环,控制成本和可用性。

若这一页理解透了,则后面所有内容都顺了。
切记,所谓的范式,不过是一套方法模板罢了,没有大家想象的高大上。


第 4 节:Eino 里 ReAct 是怎么落地的

时间:1.5 分钟

这页我不会讲太细的源码,而是重点讲工程表达。

可以这样说:

在 Eino 里,ReAct 不是停留在概念层,而是被明确表达成了一个执行闭环。

最直观的理解就是:
ChatModel 和 ToolsNode 之间形成了一个环。

模型先输出 tool call,工具执行后把 observation 写回状态,再回到模型继续推理。
这个过程一直循环,直到没有 tool call,或者命中直接结束条件。

在 ADK 里,这个闭环最典型的封装就是 ChatModelAgent
它本质上就是一个工程化的 ReAct Agent。

它帮你处理了很多工程问题,比如:工具调用循环最大迭代次数某些工具执行后直接返回显式退出协议

记住这句很关键的话:

因此,我更愿意把 ChatModelAgent 理解成:
不是“一个聊天模型”,而是“一个带 ReAct 运行时的 Agent 封装”。

这一点,真的很加分。


第 5 节:Agent 编排到底在编排什么

时间:1 分钟

本页承上启下,非常重要。

可以这样说:

如果 ReAct 解决的是“一个 Agent 内部怎么闭环”,
那 Agent 编排解决的就是:
多个 Agent 之间怎么协作。

所以这两件事不是同一个层面的问题。ReAct 关注的是单 Agent 内部:推理、行动、观察Orchestration 关注的是多 Agent 外部:分工、路由、状态共享、控制权转移

也就是说:
ReAct 是单体闭环,编排是群体协作。

然后直接引到后面三种模式:

在 Eino ADK 里,最值得讲的三种编排模式分别是:Workflow AgentsSupervisorPlan-Execute

第 6 节:三种典型编排模式,一次讲清

时间:2 分钟

这一页很朴素,你可以直接把这三种编排当成 “三兄弟”

第一种:Workflow Agents

可以这样说:

Workflow Agents 是确定性编排。
路怎么走,是代码提前写死的。
比如顺序执行、循环执行、并行执行。

它的优点是:可预测、易审计、易测试。
它的缺点是:灵活性不如模型自主决策。

第二种:Supervisor

Supervisor 是中心化调度。
也就是有一个总控 Agent,负责把任务分配给不同子 Agent。
子 Agent 负责干活,总控负责继续判断下一步。

它更像一个项目经理模式。

第三种:Plan-Execute

Plan-Execute 是“先规划,再执行,再重规划”。
它适合长任务、复杂任务。
因为它不是边走边猜,而是先把任务拆成步骤,再一步一步做。

所以它比纯 ReAct 更适合长链路研究型任务。

然后你做个总收束:

这三种模式,本质上对应三种不同的控制哲学:Workflow:代码决定流程Supervisor:中心调度决定流程Plan-Execute:规划结果决定流程

第 7 节:几个最容易讲混的边界

时间:2.5 分钟

这一页不贪多,只讲3个最有价值的。

边界 1:Transfer vs AgentAsTool

Transfer 是控制权交接。
我把任务交给你,你接着往下做。

AgentAsTool 是工具式调用。
我调用你,等你返回结果,然后我继续处理。

所以一个是“交棒”,一个是“外包”。

边界 2:BreakLoop vs Exit

BreakLoop 是局部退出。
只跳出当前 Loop。

Exit 是全局终止。
后面的 Agent 都不再执行。

边界 3:ADK Workflow Agents ≠ compose.Workflow

若这个搞混了,将会非常致命

ADK 里的 Workflow Agents,是多 Agent 的编排模式。
compose.Workflow 是底层 DAG 编排框架。

后者强调的是数据流映射,而且它不支持环。
所以 ReAct 这种闭环,不能拿 compose.Workflow 去表达,
得用 Graph 或 ChatModelAgent 这种方式去做。

第 8 节:收尾

时间:0.5 分钟

这 10 分钟,如果只记住一句话,我希望是这句:

ReAct 解决的是单 Agent 如何形成“推理—行动—观察”的闭环;
Agent 编排解决的是多个 Agent 如何分工、协作和治理。
Eino ADK 的价值,就在于把这两件事都做成了可工程化落地的运行时。


所以从面试视角看,真正重要的不是你会不会调一个模型,
而是你能不能讲清:一个 Agent 为什么能跑起来多个 Agent 为什么能协作起来它们为什么能被治理、被中断、被恢复、被追踪

三、总结

本篇文章,以下几点最为重要。

  • ReAct 是单 Agent 闭环
  • 本篇说的编排是多 Agent 协作
  • Workflow / Supervisor / Plan-Execute 是三种不同控制哲学
  • ADK Workflow Agents 和 compose.Workflow 不是一回事
所以从工程视角看,Agent 不只是“模型会说话”,
而是“模型、工具、状态和控制流”被组织成了一个可治理系统。
ReAct 是这个系统里单 Agent 的闭环,编排是多个 Agent 的协作方式。

Read more

实测AI Ping,一个大模型服务选型的实用工具

实测AI Ping,一个大模型服务选型的实用工具

作为一名长期奋战在一线的AI应用工程师,我在技术选型中最头疼的问题就是:“这个模型服务的真实性能到底如何?” 官方的基准测试总是在理想环境下进行,而一旦投入使用,延迟波动、吞吐下降、高峰期服务不可用等问题就接踵而至。 直到我发现了由清华系团队打造的AI Ping,这个平台号称能提供真实、客观的大模型服务性能评测。经过一段时间的深度体验,我来分享下自己的使用感受和发现。 一、为什么我们需要大模型服务性能评测? 随着大模型应用开发的爆发式增长,MaaS(Model-as-a-Service)已成为开发者调用模型能力的首选方式。然而,面对众多服务商和模型版本,开发者在选型时往往陷入“性能不透明、数据不统一、评测不客观”的困境。正是在这样的背景下,AI Ping 应运而生。 二、AI Ping 是什么? AI Ping 是由清华系AI Infra创新企业清程极智推出的大模型服务性能评测与信息聚合平台。它通过延迟、吞吐、可靠性等核心性能指标,对国内外主流MaaS服务进行持续监测与排名,为开发者提供客观、实时、可操作的选型参考。 官网直达:https://aiping.cn/

ComfyUI文生成AI视频最佳方式:AnimateDiff完整安装使用教程 – 幽络源

ComfyUI文生成AI视频最佳方式:AnimateDiff完整安装使用教程 – 幽络源

概述 本文讲述利用ComfyUI结合AnimateDiff进行本地AI视频生成,前面幽络源测试过利用LTX Video来进行AI生成视频,但发现LTX的局限性太大,只能使用LTX专用的模型,若是更换模型则几乎不可用,而使用AnimeteDiff生成视频的话,只要使用经过SD1.5微调的模型都可以使用。 注意!!:以下插件与模型幽络源这里已经整理到网盘链接了,可以一并下载使用=>https://pan.quark.cn/s/9ed5a605b145 如图 步骤1:下载安装AnimateDiff-Evolved插件 官网链接=>https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved 下载方式1:在 ComfyUI_windows_portable\ComfyUI\custom_nodes 目录中 执行如下命令下载 git clone https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved.git 下载方式2:手动下载压缩包,

「龙虾」来了!OpenClaw如何掀起AI智能体革命

「龙虾」来了!OpenClaw如何掀起AI智能体革命

「龙虾」爆火:OpenClaw的崛起与狂欢 OpenClaw生态系统 能力扩展 部署方式 部署方式 部署方式 OpenClaw核心 ClawHub技能商店 百度App一键调用 DuClaw零部署服务 红手指Operator移动端 财经分析 新闻推送 股票分析 全网比价 5000万tokens免费 网页端直接使用 跨App操作 打车、外卖等 腾讯 QClaw WorkBuddy 腾讯云Lighthouse 智能体开发平台ADP 3月12日,百度在安卓端上线「红手指Operator」应用,标志着全球首款手机「龙虾」应用正式诞生。这款结合了自研移动端AI Agent能力的应用,可实现打车、外卖订餐等跨App交互操作,一经推出便引爆下载热潮,甚至导致系统后台资源出现紧缺。百度智能云迅速回应称,正全速调配资源扩容,全力保障用户体验。 OpenClaw,这个昵称为「龙虾」的个人AI智能体助手,在短短3周内GitHub Star数突破19万,比当年DeepSeek的增长速度还要迅猛。

Kubernetes 与 AI 集成最佳实践

Kubernetes 与 AI 集成最佳实践 一、前言 哥们,别整那些花里胡哨的。Kubernetes 与 AI 集成是现代云原生架构的重要趋势,今天直接上硬货,教你如何在 Kubernetes 中部署和管理 AI 工作负载。 二、AI 工作负载类型 类型特点资源需求训练工作负载计算密集型高 GPU 需求推理工作负载低延迟要求中等 GPU 需求数据处理存储密集型高存储 I/O模型服务高并发稳定资源需求 三、实战配置 1. GPU 资源管理 apiVersion: v1 kind: ConfigMap metadata: name: nvidia-device-plugin namespace: kube-system data: config.yaml: | version: v1 flags: migStrategy: single