引言
在信息高度分散的时代,热点内容散落在掘金、B 站、微博、今日头条等多个平台,人工整理成本高且标准不统一。本文基于 AI 智算平台和 Dify 实战搭建一套多平台内容聚合与大模型自动总结的工作流方案。通过统一解析各平台数据结构,将结果交由 LLM 自动生成结构化热闻摘要,并支持 Markdown / PDF 输出。整套流程覆盖数据采集、平台解析、变量聚合、模型调用与结果交付,可直接复用与扩展。适用于每日热闻汇总、舆情监测及自动化内容运营等实际场景。
一、AI 智算平台
这是一个面向开发者与企业级用户的一站式 AI 智算与模型服务平台,整合了云算力、模型即服务(MaaS)、应用开发与大模型生态等核心能力,致力于降低 AI 应用从'想法'到'落地'的整体门槛。
平台不仅提供多种预训练大语言模型,还覆盖弹性算力调度、模型托管、推理服务与工具集成等多种使用模式,为技术团队和业务方提供从模型调用到部署运行的一体化解决方案。
在能力形态上,该平台既可以作为模型调用平台使用,也可以承载更复杂的智能应用构建与工作流编排,适合需要快速验证、持续迭代或规模化运行 AI 能力的场景。
核心能力与产品
- 算力调度与管理:支持分布式训练、弹性 GPU 调度、混合云与私有化部署,满足不同规模与负载特征的 AI 任务需求。
- MaaS(模型即服务)平台:以 API 形式提供多种预训练模型能力,覆盖自然语言、图像与多模态场景,用户无需自行训练即可直接调用。
- 模型与生态广场:内置模型库、MCP 服务与工具集成、行业模板及可视化调试能力,加速应用开发与验证。
- 低代码 / 可视化开发支持:通过 UI 化方式构建 AI 工作流与模型调用逻辑,显著降低工程集成与维护成本。
可以将该平台理解为一个'AI 智算 + 模型与工具服务集市':你既可以通过网页或 API 直接调用现成模型,也可以托管自有模型,或基于工作流构建更复杂的智能应用。
在本文的实战中,我们选择兼容 OpenAI-API-compatible 供应商进行配置,正是利用其兼容 API 的模型部署与推理能力——无需自行搭建底层算力或模型服务,只需将整理好的数据发送给模型,即可获得分析与生成结果。
二、工作流全景
简单来说,整体流程可以概括为:
数据采集 → 平台解析器(统一格式) → 变量聚合器 → LLM 分析生成 → Markdown 转 PDF / 返回用户
通过工作流的方式,将'多平台差异'与'模型能力'解耦,保证流程清晰、结构可复用。
三、环境准备
在 Studio 中,首先需要安装以下三个插件(顺序无关):
- rookie_rss(或你使用的其他抓取器)
- OpenAI-API-compatible(用于对接兼容 OpenAI 接口的模型服务)
- Markdown 转换器(用于将 Markdown 输出转换为 PDF)
安装完成后,确认插件在「已安装」列表中可见。
四、在工作室创建'空白应用'
步骤:
- 打开 Studio → 在窗口底部点击 创建空白应用。
- 进入应用后,添加第一个节点:数据输入(可以是 RSS / HTTP / webhook)。
- 添加条件分支节点(详见下一节),然后连接到不同平台的解析执行器(或统一解析器)。
五、条件分支说明
条件分支用于判断当前运行需要处理哪个平台的数据,举例判断字段 platform 的取值:"juejin", "bilibili", "weibo",或者 "all"。每个分支会把 arg1(原始 JSON)丢给对应的解析脚本或同一解析器的不同适配器。
设计建议:尽量把平台差异放在解析层(parser)里,工作流节点保持薄而专注,便于维护和扩展。
六、平台解析器
- 输入为 JSON 字符串、dict 或 list
- 自动提取 列表


