【Coze-AI智能体平台】低门槛玩转Coze工作流!基础创建+五大核心节点+新闻扩展实战,新手直接抄作业

【Coze-AI智能体平台】低门槛玩转Coze工作流!基础创建+五大核心节点+新闻扩展实战,新手直接抄作业
在这里插入图片描述
🔥小龙报:个人主页
🎬作者简介:C++研发,嵌入式,机器人方向学习者
❄️个人专栏:《coze智能体开发平台》
永远相信美好的事情即将发生
在这里插入图片描述

文章目录


前言

Coze智能体开发平台凭借可视化工作流编排能力,成为低门槛搭建智能自动化流程的核心工具,尤其适合嵌入式、机器人方向开发者快速落地复杂功能。本文聚焦工作流基础搭建与核心节点实操,从创建规范、节点配置到实战案例逐一拆解,摒弃晦涩理论,全程贴合实操场景,帮助开发者快速掌握流程编排逻辑,打通从基础框架到功能落地的全路径,轻松上手智能体工作流开发。

一、创建工作流

创建工作流是实现复杂功能逻辑自动化的基础步骤,需遵循"操作路径-配置规范-初始界面"的流程完成框架搭建。

1.1 操作路径:从登录到进入创建界面

在这里插入图片描述

1.2 配置规范:名称与描述的设置规则

在这里插入图片描述

1.2.1 工作流名称要求:

◦ 命名约束仅允许使用字母、数字和下划线,且必须以字母开头,长度建议控制在64字符以内。
◦ 命名建议采用直观、功能相关的名称,便于后续管理和识别。

例如:
▪ 翻译类:super_translator
▪ 内容生成类:xiaohongshu_health_content
▪ 数据采集类:url_to_feishu_bitable_collect

1.2.2 工作流描述

内容要求:简洁说明工作流的核心功能与应用场景,帮助用户和大语言模型模型理解其用途。

例如:
▪ “输入养生主题,自动生成成带知识点和配图的小红书图文”
▪ “根据文章URL爬取内容,采集标题、发布者等字段存入飞书多维表格”。
注意事项描述需准确反映实际功能,避免模糊表述,例如避免使用"处理数据"等泛化描述,而应具体说明输入输出关系。

1.3 初始界面:默认节点与编辑区域

1.3.1 默认节点

◦ 开始节点:作为工作流的入口,负责接收外部输入信息(如用户指令、API参数等),类似于程序的input模块。
◦ 结束节点:作为工作流的出口,用于输出最终处理结果(如生成的文本、数据表格等),类似于程序的output模块。

1.3.2 编辑区域

◦ 左侧面板:提供可添加的节点类型,包括插件、LLM、数据库、条件判断等组件,⽀持拖拽式
添加。
◦ 中央画布:用于节点的连接与逻辑编排,支持节点位置调整、连接线编辑,可视化呈现流程走向。

在这里插入图片描述


在这里插入图片描述

二、节点系统详解

2.1 基础节点

基础节点是构建Coze工作流的核心基础单元,作为流程中的处理单元,通过输入/输出模型实现数据传递与任务执行,其自上而下的层次结构与节点间的执⾏顺序连接(灰色连接线)构成了工作流的基本框架。核心类型包括开始节点、结束节点、大模型节点、插件节点和工作流节点,各类节点需通过明确的输入参数(参考变量或自定义值)与输出端实现协同。

在这里插入图片描述

2.1.1 开始节点

功能定位:作为工作流的起点,负责设定启动参数与提取用户输入信息,是流程执行的触发源。其核心作用是将用户对话中的关键信息转化为可被后续节点引用的变量。
配置步骤:支持两种输入参数添加方式
• 手动动添加 :需指定变量名(如douyin_link )、类型(文本/数字等)及是否必选(必选参数缺失将导致流程中断);

在这里插入图片描述


• JSON导入则通过结构化数据批量定义参数:适用于复杂场景

在这里插入图片描述

2.1.2. 结束节点

功能定位:结束节点是工作流的最终节点,用于返回工作流运行后的结果。结束节点支持持两种返回方式,即返回变量和返回文本。
返回变量:返回变量模式下,工作流运行结束后会以JSON格式输出所有返回参数,适用于工作流绑定卡片或作为子工作流的场景。如果工作流直接绑定了智能体,对话中触发了工作流时,大模型会自动动总结JSON格式的内容,并以自然语言回复用户。返回变量支持配置String、Number、Object等多种类型,其中Object类型的参数最多支持持3层嵌套。
返回文本:返回文本模式下,⼯作流运行结束后,智能体中的模型将直接使用指定的内容回复对话。回答内容中支持引用输出参数,也可以设置流式输出。

在这里插入图片描述

2.1.3 大模型节点

功能定位:集成大语言模型能力处理文本生成任务,支持基于输ru内容(如用户问题、外部数据)用成结构化或非结构化输出,是实现自然语言理解与生成的核心节点。
配置大模型节点:需重点设置三项核心内容:
• 模型选择:支持GPT-3.5、GPT-4、豆包视觉理解Pro等多模型切换

在这里插入图片描述


技能:支持为大模型节点配置技能,添加插件、工作流或知识库,扩展模型能力的边界。大模型节点运行时,会根据用户提示词自动动调⽤插件、工作流或知识库,综合各类信息输入后输出回复

在这里插入图片描述


• 输入: 需要添加到提示词中的动态内容。系统提示词和用户提示词中支持引用输入参数,实现动态调整的效果。添加输入参数时需要设置子参数名和变量值,其中变量值持设置为固定值或引用上游节点的输出参数。

在这里插入图片描述


• 系统提示词:模型的系统提示词,用于指定人设和回复风格。⽀持直接插入提示词库中的提示词模版、插入团队资源库下已创建的提示词,也可以自行编写提示词。编写系提示词时,可以引用输入参数中的变量、已经添加到大模型节点的技能,例如插件工具、工作流、知识库,实现提示词的高效编写。例如{{variable}}表示直接引用变量,{{变量名.I变量名}}表示引用JSON的子变量,{{变量名[数组索引]}}表示引用数组中的某个元素。

在这里插入图片描述


• 用户提示词:模型的用户提示词是用户在本轮对话中的输入,用于给模型下达最新的指令或问题。用户提示词同样可以引用输入 参数中的变量。

在这里插入图片描述


• 输出:输出格式支持设置为:
◦ 文本:纯文本格式。此时大模型节点只有⼀个输出参数,参数值为模型回复的文本内容。
◦ Markdown:Markdown格式。此时大模型节点只有⼀个输出参数,参数值为模型回复的文本内容。
◦ JSON:标准JSON格式。你可以直接导入⼀段JSON样例,系统会根据样例格式自动设置输出参数的结构,也可以直接添加多个参数并设置参数类型。

在这里插入图片描述


• 异常处理:默认情况下,节点运运超时、运行异常时,工作流会中断,工作流调试界面或API中会返回错误信息。你也可以手动设置节点运行超时等异常情况下的处理方式,例如超时时间、是否重
试、是否跳转异常分支等。

2.1.3.1案例
在这里插入图片描述

2.1.4 插件节点

核心功能:插件节点是Coze工作流中实现工具集成的核心单元,通过连接外部服务与内部逻辑,扩展机器人的功能边界。其核心价值在于将第三方API、服务能力转化为可编排的工作流组件,支持与其他节点(如变量节点、条件节点)的数据交互,构建自动化业务流程。
Coze插件体系分为内置插件与自定义插件两类,分别满足不同功能需求:
内置插件:平台提供超过60种开箱即用的工具,覆盖信息检索(如必应搜索、头条搜索)、多模态处理(如GPT4V图片转文字、DALLE3图像生成)、生产力工具(如代码执行器、文档生成器DocMaker)等领域。典型场景包括:电商客服通过「商品推荐插件」实时调取库存数据,教育Bot借助英语名言警句插件」辅助语言教学。
自定义插件:支持用户通过API配置创建专属工具,适用于企业内部系统集成或个性化需求。

例如,通过配置天气API实现城市天气查询,或集成剪映插件的add_videos 接口实现自动化视频混剪。自定义插件需遵循「同⼀插件内工具域名⼀致」原则,每个插件可包含多个API工具。插件节点在本质上是⼀个外部服务的可调用API,每⼀个插件节点需要清楚地知道输入参数与输出参数。

插件节点在本质上是⼀个外部服务的可调⽤API,每⼀个插件节点需要清楚地知道输⼊参数与输出参数。

在这里插入图片描述

2.1.5 工作流节点

功能定位:在⼀个工作流中,你可以将另一个工作流作为其中的⼀个步骤或节点,实现复杂任务的自动化。

例如将常用的、标准化的任务处理流程封装为不同的子工作流,并在主工作流的不同分支内调用这些子工作流执行对应的操作。

输入与输出:工作流节点的输入和输出结构取决于子作流定义的输入输出结构,不⽀持自定义设置。在工作流节点中你需要为必选的输入参数指定数据来源,⽀持设置为固定值或引用上游节点的输出参数。
批处理:⼯作流节点默认单次运行,对于输入信息只做⼀次处理。你也可以设置此节点使用批处理模式,按照配置多次运行。每次运行都会分配参数值,直到达到次数限制或者列表的最大长度。
异常设置:工作流节点支持忽略异常功能。开启此功能后,如果试运工作流时此节点运失败,工作流不会中断,而是继续运行后续下游节点。如果下游节点引用了此节点的输出内容,则使用此节点预先配置的默认输出内容。

在这里插入图片描述

2.1.6 实战案例

我们结合以上基础节点开发⼀个工作流。扩展新闻:先随机输入⼀个内容去新闻插件里面获取相关的标题,然后把新闻的标题通过大模型扩展⼀下,输出⼀个完整的文案。

2.1.6.1 插件节点
在这里插入图片描述
2.1.6.2 大模型节点
在这里插入图片描述
2.1.6.3 演示效果
在这里插入图片描述
在这里插入图片描述

总结与每日励志

✨本文详解 Coze 工作流创建与核心节点实操,覆盖配置、参数、实战全流程,帮开发者快速掌握可视化编排。技术之路无捷径,扎实练基础、耐心调细节,每一次实操都是成长。保持热爱、稳步前行,在智能体开发中持续突破,终将收获能力与成果。

在这里插入图片描述

Read more

全网最简单的 OpenClaw 部署教程,5 分钟拥有你的 AI 员工

全网最简单的 OpenClaw 部署教程,5 分钟拥有你的 AI 员工

我们是由枫哥组建的IT技术团队,成立于2017年,致力于帮助IT从业者提供实力,成功入职理想企业,我们提供一对一学习辅导,由知名大厂导师指导,分享Java技术、参与项目实战等服务,并为学员定制职业规划,全面提升竞争力,过去8年,我们已成功帮助数千名求职者拿到满意的Offer:qiuzhiwang.vip。 前言 OpenClaw 是一款终端式 AI 助手,支持多模型适配、多渠道接入,既可本地部署,也支持云端一键安装。 本文聚焦“本地部署 + 飞书机器人接入”全流程,适配 macOS / Linux / Windows。 * 官网:https://openclaw.ai/ * GitHub:https://github.com/openclaw/(以官方仓库为准) * 部署方式: * 本地部署(本文核心) * 云端一键安装(阿里云 / 火山引擎 / MiniMax 等) * Docker

网络安全:零暴露公网IP访问本地AI服务的一些方法分享,保障数据隐私!

网络安全:零暴露公网IP访问本地AI服务的一些方法分享,保障数据隐私!

如果我们选择本地部署AI模型(如LLaMA、Stable Diffusion)的核心动机之一是对数据隐私的绝对控制! 但当我们需要从外部网络访问这些服务时,就面临两难选择:要么牺牲便利性(只能在内网使用),要么牺牲安全性(将服务暴露至公网)。我这边介绍一种折中的解决方案,实现无需公网IP、零端口暴露的远程安全访问。 公网暴露的潜在威胁 将本地服务的端口通过路由器映射到公网(Port Forwarding),是常见的“暴力”解决方案。但这带来了显著风险: 1. 端口扫描与暴力破解:你的服务IP和端口会暴露在互联网的自动化扫描工具下,可能遭遇持续的登录尝试或漏洞利用攻击。 2. 服务漏洞利用:如果AI服务的Web界面或API存在未修复的漏洞,攻击者可以直接利用。 3. 家庭网络边界被突破:一旦攻击者通过该服务入侵成功,可能进一步渗透到家庭网络中的其他设备。 怎么解决:基于加密隧道的网络隐身 思路是:不让本地服务在公网“露面”,而是让外部访问者通过一条加密的“专属通道”直接进入内网。这可以通过基于零信任网络的P2P VPN工具实现。 具体实现:以Tailscale/Z

idea中如何使用Trae AI插件,并举例说明

idea中如何使用Trae AI插件,并举例说明

Trae AI 是字节跳动推出的 AI 编程助手,在 IntelliJ IDEA 中通过插件形式提供智能代码补全、代码生成、代码解释、单元测试生成等功能,支持 Java、Python、Go、JavaScript 等多种语言。   一、安装与配置 1. 安装插件 在 IDEA 中打开插件市场(File → Settings → Plugins),搜索 “Trae AI” 或 “Trae Code AI”,点击 Install 安装,重启 IDEA 生效。 2. 配置模型 首次使用需配置 AI 模型: * 打开 File → Settings → Tools

ToDesk 全新 ToClaw,正在把电脑交给AI去操作

ToDesk 全新 ToClaw,正在把电脑交给AI去操作

这两年,AI 工具层出不穷,但大多数产品还停留在“能回答、会生成”的阶段:帮你写一段话、搜一份资料、整理一个思路,真正到了执行层,还是得你自己坐回电脑前,一个软件一个软件地点、一项任务一项任务地做。 这也是很多人对 AI 的真实感受——它会说,但不一定真能干活。而 ToDesk 新上线的 ToClaw,想解决的正是这个问题。 一、ToClaw 是什么? ToClaw 是一款基于 OpenClaw 深度定制、并与远程控制运行时深度结合的 AI 助手。它最大的不同,不只是“懂你说什么”,而是能直接在你的电脑上执行操作。 你只需要一句话,它就可以在电脑端完成对应动作:打开软件、点击按钮、填写表单、拖拽文件、整理资料、生成表格、汇总信息……很多原本需要人守在电脑前操作的工作,现在都可以交给 ToClaw