引言
在信息高度分散的时代,热点内容散落在掘金、B 站、微博、今日头条等多个平台,人工整理成本高且标准不统一。本文基于通用 AI 平台和 Dify 实战搭建一套多平台内容聚合与大模型自动总结的工作流方案。通过统一解析各平台数据结构,将结果交由 LLM 自动生成结构化热闻摘要,并支持 Markdown / PDF 输出。整套流程覆盖数据采集、平台解析、变量聚合、模型调用与结果交付,可直接复用与扩展。适用于每日热闻汇总、舆情监测及自动化内容运营等实际场景。
二、工作流全景

输出示例:

简单来说,整体流程可以概括为:
数据采集 → 平台解析器(统一格式) → 变量聚合器 → LLM 分析生成 → Markdown 转 PDF / 返回用户
通过工作流的方式,将'多平台差异'与'模型能力'解耦,保证流程清晰、结构可复用。
三、环境准备
在 Studio 中,首先需要安装以下三个插件(顺序无关):
- rookie_rss(或你使用的其他抓取器)
- OpenAI-API-compatible(用于对接兼容 OpenAI 接口的模型服务)
- Markdown 转换器(用于将 Markdown 输出转换为 PDF)
安装完成后,确认插件在「已安装」列表中可见。

四、在工作室创建'空白应用'
步骤:
- 打开 Studio → 在窗口底部点击 创建空白应用。
- 进入应用后,添加第一个节点:数据输入(可以是 RSS / HTTP / webhook)。
- 添加条件分支节点(详见下一节),然后连接到不同平台的解析执行器(或统一解析器)。

五、条件分支说明
条件分支用于判断当前运行需要处理哪个平台的数据,举例判断字段 platform 的取值:"juejin", "bilibili", "weibo",或者 "all"。每个分支会把 arg1(原始 JSON)丢给对应的解析脚本或同一解析器的不同适配器。









