打造智能写作工作流:n8n + 蓝耘MaaS平台完整实战指南

打造智能写作工作流:n8n + 蓝耘MaaS平台完整实战指南

文章目录

一、前言

随着AI技术的快速发展,越来越多的开发者和内容创作者开始探索如何将AI能力集成到自己的工作流中。今天,我们将通过蓝耘平台的MaaS模型服务,结合强大的工作流自动化工具n8n,打造一个智能写文工作流。更令人兴奋的是,蓝耘平台正在推出"送千万Token资源包"福利活动,让更多用户能够免费体验AI的强大能力!

二、环境准备

2.1 注册蓝耘平台并获取API凭证

2.1.1 注册蓝耘MaaS平台

首先访问蓝耘MaaS平台官网进行注册。平台为新用户提供大量免费token,可以充分测试各种模型。

蓝耘注册页面

2.1.2 获取API密钥

登录后,进入MaaS平台选项卡,您将看到多种可调用的AI模型:

在左侧菜单中找到"API KEY管理",点击"创建API KEY",系统会生成API密钥。请妥善保存这个密钥,它是连接AI模型的关键。

创建新的API KEY

2.1.3 获取模型信息和接口地址

在MaaS模型广场中,选择您想使用的模型。点击查看详情后,您可以看到模型路径/maas/deepseek-ai/DeepSeek-V3.1,所有AI模型获取模型路径的方式一致。

模型详情页面

蓝耘提供了OpenAI兼容接口,可在MaaS平台文档中找到。

OpenAI兼容接口
💡 福利提醒:现在注册即可获得千万Token资源包,足够支撑大量的AI创作任务!

2.2 安装Docker环境

2.2.1 下载并安装Docker Desktop

首先进入Docker官网下载Docker桌面版:Docker官网

进入到Docker官网后点击Download Docker Desktop去下载Docker桌面版

Docker官网

找到适合我们的版本去下载,这里选择Windows-AMD64

下载Windows-AMD64的Docker

2.2.2 配置Docker环境

运行Docker的安装程序后,点击OK

Docker安装Configuration


Docker Desktop安装完成

启动Docker Desktop后使用谷歌账号或者Github账号进行登录。

登录Docker Desktop

2.2.3 配置国内镜像源

需要配置Docker的国内镜像源,在Settings中配置Docker Engine,配置完毕后点击Apply&restart应用并重启:

{"builder":{"gc":{"defaultKeepStorage":"20GB","enabled":true}},"experimental":false,"registry-mirrors":["https://registry.cn-hangzhou.aliyuncs.com","https://docker.mirrors.ustc.edu.cn","https://registry.docker-cn.com","http://hub-mirror.c.163.com"]}
配置Docker国内镜像源

2.3 部署n8n工作流平台

2.3.1 拉取n8n镜像

在Images中点击Search images to run搜索镜像并运行。

搜索镜像

Docker Hub中搜索n8n,然后找到n8nio/n8n点击Pull

搜索n8n镜像


点击Pull拉取n8n

2.3.2 创建并运行n8n容器

拉取成功后点击运行n8n镜像

运行n8n镜像

创建n8n容器配置:

配置项
Container namen8n
Host port5678
Host pathn8n_data
Container path/home/node/.n8n
创建一个n8n容器

看到打印http://localhost:5678说明运行成功

运行容器

2.3.3 初始化n8n账户

在浏览器中访问http://localhost:5678进入n8n创建账户页面

创建n8n账户

登录后进入到n8n的主页面。至此,我们已经成功部署n8n了。

n8n主页面

三、构建智能写文工作流

现在让我们在n8n中构建一个智能写文工作流,该工作流将能够:

  • 接收写作主题和要求
  • 调用蓝耘平台MaaS模型生成内容
  • 对生成的内容进行优化和格式化
  • 输出最终的文章

3.1 创建工作流基础架构

3.1.1 创建新工作流

在n8n界面中点击 Create Workflow

在n8n中创建工作流

为工作流命名:智能写文助手

给工作流命名为智能写文助手

3.1.2 添加触发器节点

添加Manual Trigger节点作为工作流的起点

添加Manual Trigger节点作为工作流的起点

双击Manual Trigger节点进行配置

双击Manual Trigger节点

点击编辑按钮,配置输入参数:

  • topic: 文章主题
  • style: 写作风格(如:正式、轻松、技术性等)
  • length: 文章长度要求
  • keywords: 关键词(可选)
[{"topic":"请输入文章主题","style":"通用","length":"1000-2000字","keywords":"请输入关键词,用逗号分隔"}]
配置输入参数

3.2 配置AI模型调用

3.2.1 添加HTTP请求节点

添加HTTP Request节点用于调用蓝耘MaaS API

添加Http Request节点

3.2.2 配置请求参数

双击HTTP Request节点进行配置:

基础配置:

  • 请求方式(Method):POST
  • 请求地址URL:https://maas-api.lanyun.net/v1/chat/completions
配置请求方式和URL

配置Headers(请求头):

  • 请求头1:Name(Content-Type),Value(application/json
  • 请求头2:Name(Authorization),Value(Bearer 蓝耘MaaS平台的APIKEY
启动并配置请求头

配置Body(请求体):
点击"Send Body"开关后,选择JSON格式,然后输入:

注意:/maas/deepseek-ai/DeepSeek-V3.1这个是蓝耘MaaS平台的模型名称,可以切换成蓝耘MaaS平台中的任意模型。
{"model":"/maas/deepseek-ai/DeepSeek-V3.1","messages":[{"role":"system","content":"你是一个专业的内容创作助手,擅长根据用户需求创作高质量文章。"},{"role":"user","content":"请根据以下要求创作文章:\n主题:{{ $json.topic }}\n写作风格:{{ $json.style }}\n文章长度:{{ $json.length }}\n关键词:{{ $json.keywords }}\n\n请创作一篇结构清晰、内容丰富的文章。"}],"max_tokens":2000,"temperature":0.7}
启动并配置请求体

3.2.3 测试API连接

配置完成后,点击Execute step测试是否能够调通蓝耘MaaS平台的模型

测试是否能够调用蓝耘MaaS平台的模型

3.3 内容处理与优化

3.3.1 添加内容处理节点

添加Code节点进行内容处理

添加Code节点进行内容处理

3.3.2 配置内容处理逻辑

双击Code节点进行配置,语言选择JavaScript:

// 提取AI生成的内容const aiResponse = items[0].json.choices[0].message.content;// 基本的内容格式化let formattedContent = aiResponse .replace(/\n\n/g,'\n\n')// 规范化段落间距.replace(/^\s+|\s+$/g,'')// 去除首尾空白.trim();// 添加文章元信息const metadata ={title: items[0].json.topic ||'未命名文章',createdAt:newDate().toISOString(),wordCount: formattedContent.length,style: items[0].json.style ||'通用'};return[{json:{content: formattedContent,metadata: metadata,originalResponse: aiResponse }}];

点击Execute step测试是否配置成功。

测试Code节点是否有效

3.4 生成Markdown文档

3.4.1 添加文档生成节点

在内容处理节点后,添加一个 Code 节点用于生成 Markdown 格式并下载

添加一个Code节点用于生成Markdown格式并下载

3.4.2 配置Markdown生成逻辑

配置Code节点,实现Markdown文档生成:

// 获取处理后的数据const items = $input.all();const processedData = items[0].json;// 生成 Markdown 内容const markdownContent =`# ${processedData.metadata.title} --- **创建时间:** ${newDate(processedData.metadata.createdAt).toLocaleString('zh-CN')} **字数统计:** ${processedData.metadata.wordCount} 字符 **文章风格:** ${processedData.metadata.style} --- ## 正文内容 ${processedData.content} --- ## 文档信息 - **生成时间:** ${newDate().toLocaleString('zh-CN')} - **文件格式:** Markdown (.md) - **处理状态:** 已完成内容格式化和优化 --- *本文档由 n8n 工作流自动生成* `;// 生成文件名(使用时间戳避免重复)const timestamp =newDate().toISOString().replace(/[:.]/g,'-').slice(0,19);const fileName =`${processedData.metadata.title.replace(/[^\w\u4e00-\u9fa5]/g,'_')}_${timestamp}.md`;// 打印下载信息 console.log(`📁 Markdown 文件已准备完成`); console.log(`📄 文件名:${fileName}`); console.log(`📊 文件大小:${markdownContent.length} 字符`);// 返回可下载的文件数据return[{json:{...processedData,markdown:{content: markdownContent,fileName: fileName,mimeType:'text/markdown',size: markdownContent.length }},binary:{data:{data: Buffer.from(markdownContent,'utf8').toString('base64'),mimeType:'text/markdown',fileName: fileName,fileExtension:'md'}}}];

点击Execute step进行执行,执行完成后,点击Download下载Markdown文件

测试markdown文件是否成功下载

查看Markdown文档内容

正确下载

四、工作流测试与验证

4.1 完整流程测试

首先编辑起点节点,topic主题设置为如何制作排骨当归汤?,点击Save保存

点击Execute workflow执行工作流

执行工作流

4.2 验证输出结果

执行完毕后,下载并查看Markdown文件,验证生成的内容质量

查看markdown

五、总结

通过本教程,我们成功构建了一个基于蓝耘MaaS平台和n8n的智能写文工作流。这个工作流具有以下优势:

部署便捷

  • 使用Docker可以快速在本地搭建n8n环境,无需复杂配置
  • 一键式容器部署,环境隔离性好

高度自定义

  • 可以根据需要调整模型参数、输出格式和处理逻辑
  • 支持多种写作风格和内容类型定制

可扩展性强

  • n8n的节点化设计使工作流可以轻松扩展
  • 可添加更多功能如文本翻译、图片生成、内容审核等

成本效益高

  • 利用蓝耘平台提供的千万Token资源包,可以免费进行大量AI创作实验
  • 相比其他AI服务,性价比更高

自动化程度高

  • 从输入主题到生成格式化文档,整个过程完全自动化
  • 大幅提高内容创作效率,释放创作者时间

Read more

【保姆级教程】告别命令行!ClawX:可视化AI智能体,小白也能轻松玩出花!

【保姆级教程】告别命令行!ClawX:可视化AI智能体,小白也能轻松玩出花! 黑底白字、敲命令、改配置… 是不是每次想让AI乖乖干活,都得先在终端里跟那些"代码黑魔法"死磕? 现在不用了!今天给大家安利一款「零门槛AI神器」——ClawX,让你把OpenClaw的强大能力装进可视化界面,从此和枯燥的命令行说拜拜! 🚀 为什么你需要ClawX?(痛点暴击!) 想象一下: * 同事A:“你会用OpenClaw写个定时抓取新闻的Agent吗?” * 你(内心OS):“先安装Node.js,配置npm镜像源,再写个Cron表达式…啊,我的发际线!” ClawX直接把「AI智能体」变成了手机App: ✅ 零配置小白友好:下载安装→填API Key→开聊,全程不用碰黑窗口 ✅ 聊天式操作:像微信聊天一样输入prompt,AI直接给你出结果 ✅ 可视化自动化:拖拽设置定时任务,7x24小时当你的"数字打工人&

2026写小说用什么软件?国内外靠谱的7款AI写作工具深度测评(附新手教程)

2026写小说用什么软件?国内外靠谱的7款AI写作工具深度测评(附新手教程)

很多朋友问我:“Edward,我脑子里有个绝佳的故事,但每次写不到三万字就卡壳,最后只能弃坑,怎么办?” 其实,写作不仅靠灵感,更靠“工程化”的执行。 在2025年的今天,我们其实非常幸运。一方面,成熟的网文写作方法论已经可以帮我们规避90%的“雷区”;另一方面,AI工具的爆发让“卡文”不再是绝症。 今天这篇文章,不讲虚的,把一套完整的新手写作SOP和7款我亲测好用的AI工具一次性分享给大家。 第一部分:新手写小说的“排雷”指南与核心方法 在打开AI工具之前,你必须先掌握这套“内功”。否则工具再强,你也只是生成了一堆没有灵魂的文字垃圾。 1、拒绝“裸奔”写作:雪花法大纲 很多新人的最大雷区就是无大纲写作。想到哪写到哪,结果写到第十章发现逻辑崩了,前面埋的坑填不上。 解决方法: 使用“雪花法”或“三幕式结构”。 一句话核心: 用20字概括你的故事(谁+

OpenClaw ACP 协议深度解析:让 IDE 直接驱动你的 AI Agent

OpenClaw ACP 协议深度解析:让 IDE 直接驱动你的 AI Agent

OpenClaw ACP 协议深度解析:让 IDE 直接驱动你的 AI Agent 🔗 ACP(Agent Client Protocol)是 OpenClaw 最新的核心基础设施升级 —— 一个连接 IDE 和 OpenClaw Gateway 的通信隧道,让你在 VS Code / Zed 中直接驱动 AI Agent,一切都无需离开编辑器 📑 文章目录 1. 为什么需要 ACP:在 IDE 和 Agent 之间反复横跳的痛苦 2. ACP 30 秒速懂:AI 世界的 Language Server Protocol 3. ACP 架构全景:

小白必看!用Llama Factory可视化界面玩转大模型微调

小白必看!用Llama Factory可视化界面玩转大模型微调 作为一名对AI技术充满好奇的平面设计师,你是否曾想过让大模型学会生成具有你个人艺术风格的文本?但一看到复杂的命令行和代码就望而却步?别担心,Llama Factory正是为你量身打造的可视化大模型微调工具。它通过简洁的Web界面,让你无需编写任何代码就能完成从数据准备到模型训练的全流程。目前ZEEKLOG算力平台已提供预装Llama Factory的镜像,只需几分钟即可在GPU环境下启动你的第一个微调任务。 为什么选择Llama Factory进行大模型微调 Llama Factory是一个开源的低代码大模型微调框架,它最大的特点就是提供了完整的图形化操作界面。对于非技术背景的用户来说,这意味: * 完全摆脱命令行操作,所有功能通过网页点选完成 * 内置多种预训练模型支持,包括LLaMA、Qwen、ChatGLM等热门模型 * 支持LoRA等轻量化微调方法,大幅降低显存需求 * 预置常见数据集模板,艺术风格文本生成也能快速上手 我实测下来,即使没有任何编程基础,也能在半小时内完成第一个微调任务。下面我就