《星辰 RPA 全自动:做一个小红书自动发文机器人》

《星辰 RPA 全自动:做一个小红书自动发文机器人》
前引:在企业数智化转型的浪潮中,如何突破 “有 AI 无落地、有流程无智能” 的困局?星辰 Agent 与星辰 RPA 的出现,正是为了解决这一痛点。作为科大讯飞旗下的双核心产品,星辰 Agent 以企业级 Agentic Workflow 开发平台为底座,提供 AI 工作流编排、模型管理与跨系统连接能力;而星辰 RPA 则以超过 300 个自动化原子能力,让业务流程真正 “动” 起来!

目录

一、企业机器人自动化平台:RPA

(1)RPA介绍

(2)服务端安装

(1)clone项目

(2)配置为本地访问

(3)检查镜像源

(4)配置default.conf

(5)启动完成

(3)客户端安装

(1)客户端一键下载

(2)更新配置文件

(3)登录(重点)

(3)打开机器人调试

(4)制作发文小机器人

(1)打开浏览器并访问小红书网页版

(2)等待页面加载

(3)点击发布入口

(4)点击发布图文

(5)增加用户输入框

(6)机器人输入元素

(7)生成笔记

(8)等待生成完成

(9)点击“下一步”再发布

(5)视频效果展示

二、Astron Agent项目演示

(1)项目地址

(2)项目启动

(3)智能体生成


一、企业机器人自动化平台:RPA

开源地址:https://github.com/iflytek/astron-rpa

(1)RPA介绍
星辰 RPA 是科大讯飞基于 AI+RPA 技术打造的零代码流程自动化开发平台,它内置超过 300 个预置自动化原子能力,让业务人员无需编程,通过拖拽式操作就能快速搭建专属业务机器人,轻松解决跨系统数据同步、重复劳动、规则性任务等企业痛点(可以自己动手实现一个机器人!)
(2)服务端安装

按照下面的顺序启动服务端:

# 克隆项目
git clone https://github.com/iflytek/astron-rpa.git
cd astron-rpa

# 进入 docker 目录
cd docker

# 复制.env
cp .env.example .env

# 修改.env中casdoor的服务配置(8000为默认端口)
CASDOOR_EXTERNAL_ENDPOINT="http://{YOUR_SERVER_IP}:8000"

# 🚀 启动所有服务
docker compose up -d

# 📊 检查服务状态
docker compose ps
(1)clone项目
(2)配置为本地访问

然后我们修改修改.env中casdoor的服务配置,修改为本地的localhost:

(3)检查镜像源

如果镜像源出现问题,可以使用下面的镜像源,先清理之前的镜像缓存,再重新拉取:

整体顺序:

(1)docker system prune -a(清理旧的镜像)

(2)在Docker Desktop中替换为下面的镜像源,然后重新启动Docker Desktop

(3)docker pull mysql:8.0(手动拉取镜像)

{
  "registry-mirrors": [
    "https://docker.1ms.run",
    "https://docker.xuanyuan.me",
    "https://docker.m.daocloud.io"
  ]
}
(4)配置default.conf

直接前往https://github.com/iflytek/astron-rpa/blob/main/docker/volumes/nginx/default.conf复制

(5)启动完成

可以看到所有服务全部正常:

(3)客户端安装
(1)客户端一键下载

大家直接前往这里下载客户端:astron-rpa/README.zh.md at main · iflytek/astron-rpa

(2)更新配置文件

修改为本地部署的服务端地址和端口(可以不用改)

(3)登录(重点)

前往http://localhost:8000/users,然后打开RPA客户端,点击注册按照Casdoor的配置填写!

最后登录完成:

(3)打开机器人调试

首先是浏览器的扩展设置,给机器人授权:

(4)制作发文小机器人
(1)打开浏览器并访问小红书网页版

填入小红书(先手动完成登录https://www.xiaohongshu.com/explore)目标网址和选择目标浏览器

(2)等待页面加载

(先打开Edge浏览器登录小红书,下面的操作才可以继续进行!)

  • 右侧参数面板,找到元素拾取这一项
  • 点击这个按钮,选择小红书的发布位置

Ctrl+左键选择小红书的发布按钮,然后会自动退出来,等你确认:

(3)点击发布入口

增加点击元素,点击元素拾取,然后选择“发布”:

(4)点击发布图文

增加选择点击元素,然后前往小红书点击图文发布

(5)增加用户输入框

作用:告诉机器人要生成的笔记的内容

(6)机器人输入元素

将第一行用户的输入内容,填入这个输入元素的输入里面,点击模拟人工

(7)生成笔记

还是一模一样的操作,新增点击节点,点击生成笔记:

(8)等待生成完成

等待笔记生成完成,留大概20秒就可以了:

(9)点击“下一步”再发布

后面都是通过点击元素完成,这里就不重复了,整体来说上手很快:

(5)视频效果展示

小红书自动发文机器人演示

二、Astron Agent项目演示

(1)项目地址

Astron Agent 开源地址:https://github.com/iflytek/astron-agent

(2)项目启动

直接下载项目到本地!按照下面的教程四步即可快速运行项目:

(1)首先是端口的配置:

# 端口选择上没有强制要求,建议给astron-agent 分配 80 端口
astron-agent-nginx------80  (EXPOSE_NGINX_PORT)
# astron-agent默认文件存储在 minio,如使用 minio ,请给 minio 分配端口和配置放行策略
# minio存储端口
astron-agent-minio------18998  (EXPOSE_MINIO_PORT)
# minio控制台端口
astron-agent-minio-console----18999  (EXPOSE_MINIO_CONSOLE_PORT)
# casdoor单点登录端口
casdoor--------8000  (CASDOOR_PORT)
# ragflow端口(如部署,需要开放此端口)
ragflow--------18080

(2)进入astronAgent目录,复制修改环境变量

cd docker/astronAgent
cp .env.example .env
vim .env

然后前往https://console.xfyun.cn讯飞开放平台获取下面的配置在 .vim 文件中修改:

# 建议换成稳定版本的镜像
ASTRON_AGENT_VERSION=v1.0.0-rc.8
# HOST_BASE_ADDRESS,即实际部署机器的Ip地址,不需要带端口,必须配置
HOST_BASE_ADDRESS=http://127.0.0.1
# 讯飞开放平台相关信息
PLATFORM_APP_ID=your-app-id
PLATFORM_API_KEY=your-api-key
PLATFORM_API_SECRET=your-api-secret
# 星火模型的密钥
SPARK_API_PASSWORD=your-api-password

这里采用的是Docker desktop,Docker Engine可以直接使用下面的:

{
  "registry-mirrors": [
    "https://registry.cn-hangzhou.aliyuncs.com",
    "https://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn"
  ]
}

(3)如图进入对应目录,直接执行下面的启动指令(先运行Docker Desktop):

docker compose -f docker-compose-with-auth.yaml up -d

即可通过浏览器访问智能体平台:

(4)先引入第三方模型(比如豆包、星火模型(讯飞开放平台获取)、智谱的GLM)

(3)智能体生成

在我的智能体选择新建,说实话,我感觉这个一句话生成的比小编搭的要好太多了........爱上了!

Read more

AI【应用 04】FunASR离线文件转写服务开发指南(实践篇)

FunASR离线文件转写服务开发指南(实践篇) * 1.是什么 * 2. 快速上手 * 2.1 docker安装 * 2.2 镜像启动 * 2.3 服务端启动 * 2.4 客户端测试与使用 * 3. 客户端用法详解 * 3.1 python-client * 3.2 cpp-client * 3.3 Html网页版 * 3.4 Java-client * 3.4.1 Building for Linux/Unix * 4. 服务端用法详解 * 4.1 启动FunASR服务 * 4.2 关闭FunASR服务 * 4.3 修改模型及其他参数

【Model】【llm38】Llama API - 示例

【Model】【llm38】Llama API - 示例

案例目标 Llama API是一个托管的Llama 2 API服务,支持函数调用功能。本案例展示了如何通过LlamaIndex集成Llama API,实现基本的文本补全、对话交互、函数调用和结构化数据提取功能。Llama API为开发者提供了一个便捷的方式来使用Llama 2模型,无需本地部署,可以直接通过API调用模型服务,大大简化了使用流程。同时,该API支持函数调用功能,使得模型能够与外部工具和服务进行交互,扩展了应用场景。 环境配置 1. 安装依赖 安装必要的依赖包: %pip install llama-index-program-openai %pip install llama-index-llms-llama-api !pip install llama-index 2. 获取API密钥 要运行此示例,您需要从Llama API官网获取API密钥。 3. 导入库并设置API密钥 导入必要的库并设置API密钥: from llama_index.llms.llama_api import LlamaAPI

Cogito-v1-preview-llama-3B保姆级教程:Ollama模型卸载、重载与缓存清理

Cogito-v1-preview-llama-3B保姆级教程:Ollama模型卸载、重载与缓存清理 本文详细讲解Cogito v1预览版模型的完整使用流程,重点介绍如何正确卸载、重载模型以及清理缓存,帮助您更好地管理Ollama环境中的AI模型。 1. Cogito v1预览版模型介绍 Cogito v1预览版是Deep Cogito推出的混合推理模型系列,这个3B参数的模型在大多数标准基准测试中都表现出色,超越了同等规模下最优的开源模型。无论是来自LLaMA、DeepSeek还是Qwen等模型的同类产品,Cogito v1都展现出了更强的性能。 Cogito模型是经过指令调优的生成式模型,采用文本输入和文本输出的方式。最重要的是,所有模型都以开放许可发布,允许商业使用,这为开发者提供了极大的便利。 模型核心特点: * 混合推理能力:既可以直接回答问题,也可以在回答前进行自我反思 * 使用迭代蒸馏和放大(IDA)训练策略,通过自我改进实现智能提升 * 针对编码、STEM、指令执行和通用帮助性进行了专门优化 * 支持超过30种语言,上下文长度达到128k * 在

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

引言:突破视觉创作的传统限制 在视觉内容的创作领域,长久以来存在着一系列由技术、时间及预算构成的严格限制。这些限制直接影响着创意从概念到最终呈现的全过程。一个富有创造力的设计师,可能会因为无法承担高昂的实地拍摄费用,而不得不放弃一个原本极具潜力的广告方案。一个构思了宏大世界观的故事作者,可能因为不具备操作复杂三维建模软件的专业技能,而使其笔下的角色无法获得具象化的视觉呈现。一家新兴的初创公司,也可能因为传统设计流程的冗长和低效,在快速变化的市场竞争中错失发展机会。 社会和行业在某种程度上已经习惯了这种因工具和流程限制而产生的“创意妥协”。创作者们在面对自己宏大的构想时,常常因为工具的局限性而感到无力。一种普遍的观念是,顶级的、具有专业水准的视觉呈现,是少数拥有充足资源和专业团队的机构或个人的专属领域。 然而,由豆包·图像创作模型Seedream 4.0所引领的技术发展,正在从根本上改变这一现状。它所提供的并非是对现有工具集的微小改进或功能补充,而是一种全新的、高效的创作工作模式。通过这一模式,过去需要专业团队投入数周时间才能完成的复杂视觉项目,现在可以在极短的时间内,在操作者的