【AIGC】AI工作流workflow实践:构建日报

【AIGC】AI工作流workflow实践:构建日报

workflow实践

  • 引言
  • 实现步骤分析
  • 实践
    • 创建 dify workflow 应用
    • 创建工作流内部节点
      • 1、设置输入字段
      • 2、创建两个LLM节点
      • 3、设置结束节点
    • 运行工作流
  • 结语

引言

工作流 workflow 是现在 LLM 很重要的一个概念,因为对于一个模型来说,非常复杂的问题很难一次性完美解决,而且可能需要很多别的辅助工具。而工作流就是将这些工具和模型组合起来,形成一个完整的解决方案。今天我们来做个工作流实践,帮助读者理解工作流。我们来构建一个帮助我们写日报的工作流。在帮助我们完成日报的填写的同时,我们需要它进行 AI 味的去除,免得出现别人一看就是 AI 写出来的文章的情况。

实现步骤分析

  1. 我们需要一个可以构建工作流的平台,这边我们选择 dify
  2. 我们需要模型根据我们提供的今天做的事情去自动生成日报

我们需要对刚才生成的文章进行 AI 味的去除

在这里插入图片描述

实践

创建 dify workflow 应用

进入 dify,创建一个 workflow,选择工作流,标题就写日报生成

在这里插入图片描述

创建工作流内部节点

1、设置输入字段

在开始节点设置一个字段接收用户的输入,这个节点我们设置为message

在这里插入图片描述

2

Read more

医疗送药机器人“空间拓扑优化+动态算法决策+多级容错控制”三重链式编程技术解析与应用

医疗送药机器人“空间拓扑优化+动态算法决策+多级容错控制”三重链式编程技术解析与应用

一、引言 1.1 研究背景与意义 在医疗体系中,高效精准的药品配送是保障医疗服务质量和患者安全的关键环节。随着医疗技术的不断进步和医疗需求的日益增长,传统的人工送药方式逐渐暴露出诸多弊端,如配送效率低下、易受人为因素干扰导致错误率上升、人力成本高昂等。特别是在大型综合医院,科室众多、布局复杂,药品配送路径长且需经过多个区域,这使得人工送药的难度和工作量大幅增加,进而影响医疗服务的及时性和准确性。 医疗送药机器人的出现为解决这些问题提供了新的途径。它能够在医院复杂的环境中自主导航,按照预设的路径和时间准确地将药品送达指定地点,极大地提高了药品配送的效率和准确性。通过自动化的配送流程,送药机器人可有效减少人为因素造成的错误,如拿错药、送错药等情况,从而保障患者的用药安全。同时,送药机器人的应用还能将药师和护士从繁琐的药品配送工作中解放出来,使其能够将更多的时间和精力投入到临床药学服务和患者护理工作中,提高医疗服务的整体质量。 “空间拓扑优化 + 动态算法决策 + 多级容错控制” 三重链式编程技术的提出,为医疗送药机器人性能的进一步提升带来了革命性的突破。空间拓扑优化技术能够对医院的

大学生心理健康管理系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

大学生心理健康管理系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

摘要 随着社会快速发展,大学生心理健康问题日益受到关注。学业压力、人际关系、就业焦虑等多重因素导致大学生心理问题频发,传统的人工干预方式效率低下且难以覆盖广泛群体。高校亟需一套科学化、信息化的心理健康管理系统,实现心理问题的早期筛查、动态跟踪和精准干预。当前市场上多数心理健康管理系统功能单一,缺乏数据分析能力,无法满足高校个性化需求。本系统旨在构建一个集心理测评、咨询预约、危机预警于一体的综合管理平台,通过信息化手段提升心理健康服务效率,为高校管理者提供决策支持。关键词:大学生心理健康、信息化管理、动态跟踪、早期筛查、决策支持。 本系统采用SpringBoot+Vue+MySQL技术栈实现前后端分离架构。后端基于SpringBoot框架提供RESTful API接口,集成JWT实现安全认证,利用MyBatis-Plus简化数据库操作。前端采用Vue.js构建响应式界面,通过Axios与后端交互,结合ECharts实现数据可视化。系统包含心理测评模块(SCL-90、SDS等量表)、咨询预约模块(在线预约与提醒)、危机预警模块(基于规则引擎的自动分级)三大核心功能,支持多角色权限控制(

笔记? 或许吧 (初学web

目录 攻防世界 1. Training-WWW-Robots AI robots协议概述 robots.txt文件规则 注意事项 高级用法 验证工具 2.PHP2 关于 index.phps 的解释 常见用途 配置方法 注意事项 攻防世界 1. Training-WWW-Robots 不难发现robots.txt  但是不知道是什么问问AI找到是个协议 再问robots协议 下面是AI查询结果 AI robots协议概述 robots协议(Robots Exclusion Protocol)是网站通过robots.txt文件告知搜索引擎哪些页面或目录可以被爬取,哪些应被禁止的规范。该协议属于自愿遵守的行业标准,并非强制性技术约束。 robots.txt文件规则 * 基本语法: * User-agent: 指定适用的爬虫名称(如*表示所有爬虫)。 * Disallow: 禁止爬取的路径(如Disallow: /private/