打造智能写作工作流:n8n + 蓝耘MaaS平台完整实战指南

打造智能写作工作流:n8n + 蓝耘MaaS平台完整实战指南

文章目录

一、前言

随着AI技术的快速发展,越来越多的开发者和内容创作者开始探索如何将AI能力集成到自己的工作流中。今天,我们将通过蓝耘平台的MaaS模型服务,结合强大的工作流自动化工具n8n,打造一个智能写文工作流。更令人兴奋的是,蓝耘平台正在推出"送千万Token资源包"福利活动,让更多用户能够免费体验AI的强大能力!

二、环境准备

2.1 注册蓝耘平台并获取API凭证

2.1.1 注册蓝耘MaaS平台

首先访问蓝耘MaaS平台官网进行注册。平台为新用户提供大量免费token,可以充分测试各种模型。

蓝耘注册页面

2.1.2 获取API密钥

登录后,进入MaaS平台选项卡,您将看到多种可调用的AI模型:

在左侧菜单中找到"API KEY管理",点击"创建API KEY",系统会生成API密钥。请妥善保存这个密钥,它是连接AI模型的关键。

创建新的API KEY

2.1.3 获取模型信息和接口地址

在MaaS模型广场中,选择您想使用的模型。点击查看详情后,您可以看到模型路径/maas/deepseek-ai/DeepSeek-V3.1,所有AI模型获取模型路径的方式一致。

模型详情页面

蓝耘提供了OpenAI兼容接口,可在MaaS平台文档中找到。

OpenAI兼容接口
💡 福利提醒:现在注册即可获得千万Token资源包,足够支撑大量的AI创作任务!

2.2 安装Docker环境

2.2.1 下载并安装Docker Desktop

首先进入Docker官网下载Docker桌面版:Docker官网

进入到Docker官网后点击Download Docker Desktop去下载Docker桌面版

Docker官网

找到适合我们的版本去下载,这里选择Windows-AMD64

下载Windows-AMD64的Docker

2.2.2 配置Docker环境

运行Docker的安装程序后,点击OK

Docker安装Configuration


Docker Desktop安装完成

启动Docker Desktop后使用谷歌账号或者Github账号进行登录。

登录Docker Desktop

2.2.3 配置国内镜像源

需要配置Docker的国内镜像源,在Settings中配置Docker Engine,配置完毕后点击Apply&restart应用并重启:

{"builder":{"gc":{"defaultKeepStorage":"20GB","enabled":true}},"experimental":false,"registry-mirrors":["https://registry.cn-hangzhou.aliyuncs.com","https://docker.mirrors.ustc.edu.cn","https://registry.docker-cn.com","http://hub-mirror.c.163.com"]}
配置Docker国内镜像源

2.3 部署n8n工作流平台

2.3.1 拉取n8n镜像

在Images中点击Search images to run搜索镜像并运行。

搜索镜像

Docker Hub中搜索n8n,然后找到n8nio/n8n点击Pull

搜索n8n镜像


点击Pull拉取n8n

2.3.2 创建并运行n8n容器

拉取成功后点击运行n8n镜像

运行n8n镜像

创建n8n容器配置:

配置项
Container namen8n
Host port5678
Host pathn8n_data
Container path/home/node/.n8n
创建一个n8n容器

看到打印http://localhost:5678说明运行成功

运行容器

2.3.3 初始化n8n账户

在浏览器中访问http://localhost:5678进入n8n创建账户页面

创建n8n账户

登录后进入到n8n的主页面。至此,我们已经成功部署n8n了。

n8n主页面

三、构建智能写文工作流

现在让我们在n8n中构建一个智能写文工作流,该工作流将能够:

  • 接收写作主题和要求
  • 调用蓝耘平台MaaS模型生成内容
  • 对生成的内容进行优化和格式化
  • 输出最终的文章

3.1 创建工作流基础架构

3.1.1 创建新工作流

在n8n界面中点击 Create Workflow

在n8n中创建工作流

为工作流命名:智能写文助手

给工作流命名为智能写文助手

3.1.2 添加触发器节点

添加Manual Trigger节点作为工作流的起点

添加Manual Trigger节点作为工作流的起点

双击Manual Trigger节点进行配置

双击Manual Trigger节点

点击编辑按钮,配置输入参数:

  • topic: 文章主题
  • style: 写作风格(如:正式、轻松、技术性等)
  • length: 文章长度要求
  • keywords: 关键词(可选)
[{"topic":"请输入文章主题","style":"通用","length":"1000-2000字","keywords":"请输入关键词,用逗号分隔"}]
配置输入参数

3.2 配置AI模型调用

3.2.1 添加HTTP请求节点

添加HTTP Request节点用于调用蓝耘MaaS API

添加Http Request节点

3.2.2 配置请求参数

双击HTTP Request节点进行配置:

基础配置:

  • 请求方式(Method):POST
  • 请求地址URL:https://maas-api.lanyun.net/v1/chat/completions
配置请求方式和URL

配置Headers(请求头):

  • 请求头1:Name(Content-Type),Value(application/json
  • 请求头2:Name(Authorization),Value(Bearer 蓝耘MaaS平台的APIKEY
启动并配置请求头

配置Body(请求体):
点击"Send Body"开关后,选择JSON格式,然后输入:

注意:/maas/deepseek-ai/DeepSeek-V3.1这个是蓝耘MaaS平台的模型名称,可以切换成蓝耘MaaS平台中的任意模型。
{"model":"/maas/deepseek-ai/DeepSeek-V3.1","messages":[{"role":"system","content":"你是一个专业的内容创作助手,擅长根据用户需求创作高质量文章。"},{"role":"user","content":"请根据以下要求创作文章:\n主题:{{ $json.topic }}\n写作风格:{{ $json.style }}\n文章长度:{{ $json.length }}\n关键词:{{ $json.keywords }}\n\n请创作一篇结构清晰、内容丰富的文章。"}],"max_tokens":2000,"temperature":0.7}
启动并配置请求体

3.2.3 测试API连接

配置完成后,点击Execute step测试是否能够调通蓝耘MaaS平台的模型

测试是否能够调用蓝耘MaaS平台的模型

3.3 内容处理与优化

3.3.1 添加内容处理节点

添加Code节点进行内容处理

添加Code节点进行内容处理

3.3.2 配置内容处理逻辑

双击Code节点进行配置,语言选择JavaScript:

// 提取AI生成的内容const aiResponse = items[0].json.choices[0].message.content;// 基本的内容格式化let formattedContent = aiResponse .replace(/\n\n/g,'\n\n')// 规范化段落间距.replace(/^\s+|\s+$/g,'')// 去除首尾空白.trim();// 添加文章元信息const metadata ={title: items[0].json.topic ||'未命名文章',createdAt:newDate().toISOString(),wordCount: formattedContent.length,style: items[0].json.style ||'通用'};return[{json:{content: formattedContent,metadata: metadata,originalResponse: aiResponse }}];

点击Execute step测试是否配置成功。

测试Code节点是否有效

3.4 生成Markdown文档

3.4.1 添加文档生成节点

在内容处理节点后,添加一个 Code 节点用于生成 Markdown 格式并下载

添加一个Code节点用于生成Markdown格式并下载

3.4.2 配置Markdown生成逻辑

配置Code节点,实现Markdown文档生成:

// 获取处理后的数据const items = $input.all();const processedData = items[0].json;// 生成 Markdown 内容const markdownContent =`# ${processedData.metadata.title} --- **创建时间:** ${newDate(processedData.metadata.createdAt).toLocaleString('zh-CN')} **字数统计:** ${processedData.metadata.wordCount} 字符 **文章风格:** ${processedData.metadata.style} --- ## 正文内容 ${processedData.content} --- ## 文档信息 - **生成时间:** ${newDate().toLocaleString('zh-CN')} - **文件格式:** Markdown (.md) - **处理状态:** 已完成内容格式化和优化 --- *本文档由 n8n 工作流自动生成* `;// 生成文件名(使用时间戳避免重复)const timestamp =newDate().toISOString().replace(/[:.]/g,'-').slice(0,19);const fileName =`${processedData.metadata.title.replace(/[^\w\u4e00-\u9fa5]/g,'_')}_${timestamp}.md`;// 打印下载信息 console.log(`📁 Markdown 文件已准备完成`); console.log(`📄 文件名:${fileName}`); console.log(`📊 文件大小:${markdownContent.length} 字符`);// 返回可下载的文件数据return[{json:{...processedData,markdown:{content: markdownContent,fileName: fileName,mimeType:'text/markdown',size: markdownContent.length }},binary:{data:{data: Buffer.from(markdownContent,'utf8').toString('base64'),mimeType:'text/markdown',fileName: fileName,fileExtension:'md'}}}];

点击Execute step进行执行,执行完成后,点击Download下载Markdown文件

测试markdown文件是否成功下载

查看Markdown文档内容

正确下载

四、工作流测试与验证

4.1 完整流程测试

首先编辑起点节点,topic主题设置为如何制作排骨当归汤?,点击Save保存

点击Execute workflow执行工作流

执行工作流

4.2 验证输出结果

执行完毕后,下载并查看Markdown文件,验证生成的内容质量

查看markdown

五、总结

通过本教程,我们成功构建了一个基于蓝耘MaaS平台和n8n的智能写文工作流。这个工作流具有以下优势:

部署便捷

  • 使用Docker可以快速在本地搭建n8n环境,无需复杂配置
  • 一键式容器部署,环境隔离性好

高度自定义

  • 可以根据需要调整模型参数、输出格式和处理逻辑
  • 支持多种写作风格和内容类型定制

可扩展性强

  • n8n的节点化设计使工作流可以轻松扩展
  • 可添加更多功能如文本翻译、图片生成、内容审核等

成本效益高

  • 利用蓝耘平台提供的千万Token资源包,可以免费进行大量AI创作实验
  • 相比其他AI服务,性价比更高

自动化程度高

  • 从输入主题到生成格式化文档,整个过程完全自动化
  • 大幅提高内容创作效率,释放创作者时间

Read more

机器人逆运动学——以六自由度机器人为例(详解、易懂,附全部Matlab代码)

机器人逆运动学——以六自由度机器人为例(详解、易懂,附全部Matlab代码)

前言 前面机器人正运动学主要讲关节变量到末端执行器位姿的关系,也就是知道了关节变量与连杆参数就可以利用D-H参数表来表达末端位姿。而逆运动学就是已知末端的位姿与连杆参数,来求得关节变量的过程。本文首先介绍何为逆运动学,再以例子的形式利用D-H参数表与齐次变换矩阵对机器人进行逆解。 **阅读提醒1:在运动学逆解前,需要掌握运动学正解的相关知识,也要掌握一定的矩阵运算规则。(相关知识点有在我之前的文章提到,我也在本文进行了引用,如有需要可以查阅;我对机器人正运动学相关的matlab分析单独发了一篇博客,有需要也可以查阅) **阅读提醒2:下文灰色补充块是用于解释正文的,用来补充正文没讲到的知识或细节。 一、运动学逆解 上面提到,已知末端执行器的位姿来求解这一位姿对应的全部关节变量就是逆解,然而由于机械结构的差异,有些时候一个末端位姿可能对应着不同的反解情况(多解)。逆运动学问题实质就是非线性超越方程组的求解问题,其解法分为两大类(封闭解法和数值解法),本文主要讲封闭解法。 1.【 封闭解法 】概述 封闭解法是指具有解析形式的解法,其计算速度快、效率高,更便于实时控制,具

By Ne0inhk
龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南 前言:什么是“龙虾机器人”? 在开始部署之前,我们需要明确部署的对象。通常所说的“龙虾机器人”指的是开源项目 OpenClaw(曾用名:Clawdbot、Moltbot)。它由程序员彼得·斯坦伯格开发,是一个开源的、可本地部署的通用型AI代理系统。与ChatGPT等对话式AI不同,OpenClaw被赋予了操作系统的权限:它可以执行终端命令、读写文件、操控浏览器、安装软件,甚至通过MCP协议调用外部工具。 由于其强大的系统操控能力,安全性是部署时需关注的首要问题。官方及社区普遍建议:不要在主力机或存有敏感数据的生产环境直接裸奔部署,最好使用虚拟机、Docker容器或专用硬件(如Mac Mini或AI开发盒子)进行隔离。 第一章:环境准备与核心依赖 在安装OpenClaw之前,必须准备好运行环境。OpenClaw的核心由TypeScript编写,因此Node.js是必不可少的运行环境。此外,根据安装方式的不同,可能还需要Git、Docker或Python环境。 1.1 硬件建议与系统选择 * Linux

By Ne0inhk
用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

执行git clone https://github.com/openclaw/openclaw克隆项目,执行cd openclaw进入项目 执行node --version看看node的版本是否大于等于22(没有node.js需自行安装),再执行npm install -g pnpm安装作为包管理器,并执行pnpm install安装依赖 首次执行pnpm ui:build构建 Web UI(会先安装 ui/ 目录的依赖) 执行pnpm build构建主程序 执行pnpm openclaw onboard --install-daemon运行配置向导(安装守护进程),完成初始化 按键盘右箭头选择Yes,同样Yes 任选一个模型提供商都行,没有对应的提供商的密钥可以跳过,如果是本地模型选vLLM(需用vLLM框架启动模型,有性能优势,但原生vLLM仅完全支持Linux的cuda)、Custom Provider(可以连接任何 OpenAI 或 Anthropic 兼容的端点,

By Ne0inhk

Neo4j Windows桌面版安装及更改默认数据存储位置

Windows桌面版 下载地址:https://neo4j.com/deployment-center/ 直接点击.exe文件进行安装默认目录在C盘且无法修改,如果需要装到其他盘需要下载好.exe之后使用管理员身份打开cmd或者powershell,进入到.exe文件所在位置,输入下列命令 neo4j-desktop-2.0.5-x64.exe /S /D=D:\software\neo4j_desktop # /S 表示静默安装(无界面)# /D= 后面是你想安装到的路径,必须是绝对路径,且不含空格或引号 这样安装后虽然安装位置改变了,但是neo4j图数据库的相关数据存储位置依然默认在C盘,需要进一步配置环境变量来修改数据存储位置。在系统变量中增加NEO4J_DESKTOP_DATA_PATH的配置。 社区版 windows系统社区版下载选中以下几个选项进行下载,如果是其他系统对应选择其他系统版本的进行下载。 下载解压后无需安装,直接配置环境变量就可以使用。 在用户变量的Path中新增%NEO4J_HOME%\bin 安装配置完成之后在命令行中通过ne

By Ne0inhk