《星辰 RPA 全自动:做一个小红书自动发文机器人》

《星辰 RPA 全自动:做一个小红书自动发文机器人》
前引:在企业数智化转型的浪潮中,如何突破 “有 AI 无落地、有流程无智能” 的困局?星辰 Agent 与星辰 RPA 的出现,正是为了解决这一痛点。作为科大讯飞旗下的双核心产品,星辰 Agent 以企业级 Agentic Workflow 开发平台为底座,提供 AI 工作流编排、模型管理与跨系统连接能力;而星辰 RPA 则以超过 300 个自动化原子能力,让业务流程真正 “动” 起来!

目录

一、企业机器人自动化平台:RPA

(1)RPA介绍

(2)服务端安装

(1)clone项目

(2)配置为本地访问

(3)检查镜像源

(4)配置default.conf

(5)启动完成

(3)客户端安装

(1)客户端一键下载

(2)更新配置文件

(3)登录(重点)

(3)打开机器人调试

(4)制作发文小机器人

(1)打开浏览器并访问小红书网页版

(2)等待页面加载

(3)点击发布入口

(4)点击发布图文

(5)增加用户输入框

(6)机器人输入元素

(7)生成笔记

(8)等待生成完成

(9)点击“下一步”再发布

(5)视频效果展示

二、Astron Agent项目演示

(1)项目地址

(2)项目启动

(3)智能体生成


一、企业机器人自动化平台:RPA

开源地址:https://github.com/iflytek/astron-rpa

(1)RPA介绍
星辰 RPA 是科大讯飞基于 AI+RPA 技术打造的零代码流程自动化开发平台,它内置超过 300 个预置自动化原子能力,让业务人员无需编程,通过拖拽式操作就能快速搭建专属业务机器人,轻松解决跨系统数据同步、重复劳动、规则性任务等企业痛点(可以自己动手实现一个机器人!)
(2)服务端安装

按照下面的顺序启动服务端:

# 克隆项目
git clone https://github.com/iflytek/astron-rpa.git
cd astron-rpa

# 进入 docker 目录
cd docker

# 复制.env
cp .env.example .env

# 修改.env中casdoor的服务配置(8000为默认端口)
CASDOOR_EXTERNAL_ENDPOINT="http://{YOUR_SERVER_IP}:8000"

# 🚀 启动所有服务
docker compose up -d

# 📊 检查服务状态
docker compose ps
(1)clone项目
(2)配置为本地访问

然后我们修改修改.env中casdoor的服务配置,修改为本地的localhost:

(3)检查镜像源

如果镜像源出现问题,可以使用下面的镜像源,先清理之前的镜像缓存,再重新拉取:

整体顺序:

(1)docker system prune -a(清理旧的镜像)

(2)在Docker Desktop中替换为下面的镜像源,然后重新启动Docker Desktop

(3)docker pull mysql:8.0(手动拉取镜像)

{
  "registry-mirrors": [
    "https://docker.1ms.run",
    "https://docker.xuanyuan.me",
    "https://docker.m.daocloud.io"
  ]
}
(4)配置default.conf

直接前往https://github.com/iflytek/astron-rpa/blob/main/docker/volumes/nginx/default.conf复制

(5)启动完成

可以看到所有服务全部正常:

(3)客户端安装
(1)客户端一键下载

大家直接前往这里下载客户端:astron-rpa/README.zh.md at main · iflytek/astron-rpa

(2)更新配置文件

修改为本地部署的服务端地址和端口(可以不用改)

(3)登录(重点)

前往http://localhost:8000/users,然后打开RPA客户端,点击注册按照Casdoor的配置填写!

最后登录完成:

(3)打开机器人调试

首先是浏览器的扩展设置,给机器人授权:

(4)制作发文小机器人
(1)打开浏览器并访问小红书网页版

填入小红书(先手动完成登录https://www.xiaohongshu.com/explore)目标网址和选择目标浏览器

(2)等待页面加载

(先打开Edge浏览器登录小红书,下面的操作才可以继续进行!)

  • 右侧参数面板,找到元素拾取这一项
  • 点击这个按钮,选择小红书的发布位置

Ctrl+左键选择小红书的发布按钮,然后会自动退出来,等你确认:

(3)点击发布入口

增加点击元素,点击元素拾取,然后选择“发布”:

(4)点击发布图文

增加选择点击元素,然后前往小红书点击图文发布

(5)增加用户输入框

作用:告诉机器人要生成的笔记的内容

(6)机器人输入元素

将第一行用户的输入内容,填入这个输入元素的输入里面,点击模拟人工

(7)生成笔记

还是一模一样的操作,新增点击节点,点击生成笔记:

(8)等待生成完成

等待笔记生成完成,留大概20秒就可以了:

(9)点击“下一步”再发布

后面都是通过点击元素完成,这里就不重复了,整体来说上手很快:

(5)视频效果展示

小红书自动发文机器人演示

二、Astron Agent项目演示

(1)项目地址

Astron Agent 开源地址:https://github.com/iflytek/astron-agent

(2)项目启动

直接下载项目到本地!按照下面的教程四步即可快速运行项目:

(1)首先是端口的配置:

# 端口选择上没有强制要求,建议给astron-agent 分配 80 端口
astron-agent-nginx------80  (EXPOSE_NGINX_PORT)
# astron-agent默认文件存储在 minio,如使用 minio ,请给 minio 分配端口和配置放行策略
# minio存储端口
astron-agent-minio------18998  (EXPOSE_MINIO_PORT)
# minio控制台端口
astron-agent-minio-console----18999  (EXPOSE_MINIO_CONSOLE_PORT)
# casdoor单点登录端口
casdoor--------8000  (CASDOOR_PORT)
# ragflow端口(如部署,需要开放此端口)
ragflow--------18080

(2)进入astronAgent目录,复制修改环境变量

cd docker/astronAgent
cp .env.example .env
vim .env

然后前往https://console.xfyun.cn讯飞开放平台获取下面的配置在 .vim 文件中修改:

# 建议换成稳定版本的镜像
ASTRON_AGENT_VERSION=v1.0.0-rc.8
# HOST_BASE_ADDRESS,即实际部署机器的Ip地址,不需要带端口,必须配置
HOST_BASE_ADDRESS=http://127.0.0.1
# 讯飞开放平台相关信息
PLATFORM_APP_ID=your-app-id
PLATFORM_API_KEY=your-api-key
PLATFORM_API_SECRET=your-api-secret
# 星火模型的密钥
SPARK_API_PASSWORD=your-api-password

这里采用的是Docker desktop,Docker Engine可以直接使用下面的:

{
  "registry-mirrors": [
    "https://registry.cn-hangzhou.aliyuncs.com",
    "https://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn"
  ]
}

(3)如图进入对应目录,直接执行下面的启动指令(先运行Docker Desktop):

docker compose -f docker-compose-with-auth.yaml up -d

即可通过浏览器访问智能体平台:

(4)先引入第三方模型(比如豆包、星火模型(讯飞开放平台获取)、智谱的GLM)

(3)智能体生成

在我的智能体选择新建,说实话,我感觉这个一句话生成的比小编搭的要好太多了........爱上了!

Read more

人工智能:什么是AIGC?什么是AI4S?人工智能四大核心领域全景解析

人工智能:什么是AIGC?什么是AI4S?人工智能四大核心领域全景解析

文章目录 * 引言:AI 领域 “四分天下” * 一、AIGC:生成式 AI,内容创作的 “全能造物主” * 二、AI for Science(AI4S):科学智能,加速人类认知边界 * 三、CV(计算机视觉):计算机的 “眼睛”,感知世界的核心 * 四、自然语言处理(NLP):人机沟通的 “翻译官”,语言理解的巅峰 * 不同领域的协同与区别 * 结合四大领域的案例——HealthGPT 引言:AI 领域 “四分天下” 斯坦福大学 2025 年《人工智能指数报告》指出,AI 已从实验室突破全面进入社会深度应用期,形成四大核心领域支撑的技术生态。这四大领域并非孤立存在,而是相互协同、共同推动 AI 从

新手避坑指南:使用Llama-Factory常见的十个错误及解决方案

新手避坑指南:使用 Llama-Factory 常见的十个错误及解决方案 在大模型时代,越来越多的研究者和开发者希望将预训练语言模型应用于垂直领域——比如客服问答、法律咨询或医疗辅助。然而,直接从零开始训练一个大模型既不现实也不经济。于是,微调(Fine-tuning) 成为最主流的方式。 但问题来了:传统微调需要写复杂的训练脚本、管理分布式环境、处理显存瓶颈……这对新手来说简直是“劝退三连”。直到 Llama-Factory 的出现。 这个开源项目像是一站式自助餐厅,把数据预处理、模型加载、LoRA/QLoRA 配置、训练监控、权重合并全都打包好了,甚至提供了可视化界面,点点鼠标就能启动训练。听起来很美好?没错,但它也有自己的“隐藏规则”——稍有不慎,就会遇到训练崩溃、显存溢出、权重无效等问题。 下面我们就来盘点一下,使用 Llama-Factory 时新手最容易踩的十个坑,并结合底层机制给出真正能落地的解决建议。 为什么你明明用了 LoRA 还是爆显存? 这是最常见的第一问:

2026 AI 编码工具终局对决:Claude Code、Cursor、GitHub Copilot 全维度拆解与最优选型指南

2026 AI 编码工具终局对决:Claude Code、Cursor、GitHub Copilot 全维度拆解与最优选型指南

2026 年,AI 编码已经彻底完成了从 “可选加分项” 到 “开发者刚需” 的全面渗透。行业数据给出了最直观的印证:95% 的开发者每周都会使用 AI 编码工具,75% 的开发者已经用 AI 完成了 50% 以上的编码工作。但与极高渗透率形成鲜明反差的是,绝大多数开发者都选错了适配自身工作流的工具 —— 很多人依然在跟风使用大众普及度最高的产品,却忽略了不同工具背后完全不同的设计哲学、能力边界与适用场景。 从 2021 年 GitHub Copilot 上线开启 AI 编码 1.0 时代,到 2026 年 AI 编码已经从 “单行代码补全” 进化到 “全流程自主工程化”,赛道已经形成了三大头部产品的三分天下格局:Anthropic 推出的 Claude Code、Anysphere 打造的

记录一下使用llama.cpp过程中遇到的一些问题和解决方法

写在前面: 什么未操作即同意的条款?我写的东西免费分享也不是你能随意搬运的理由啊 特此声明,若该文章被搬运到除ZEEKLOG(www.ZEEKLOG.net)以外的其他社区如2048 AI社区,则视为该社区同意将所有收益无偿捐赠给我所有 此外,我写的所有分享都是免费的,如有VIP文章也是ZEEKLOG干的,请私信我修改成免费 起因:使用LMStudio调用AI模型时发现显存占用率一直不超过80%,询问AI解决办法无果后一怒之下换用llama.cpp,遇到了一堆AI解决不了的问题,遂记录 llama.cpp下载地址如下 https://github.com/ggml-org/llama.cpp/releases 以防万一 我老年痴呆说一下如何使用llama.cpp调用模型,把下面的代码保存成bat,放在和llama-server.exe同目录下,然后运行这个bat(确保模型位置选对,GPU_LAYERS和THREADS根据机器能力) @echo off setlocal set "MODEL_PATH=F:\Models\Yakyu&