【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词
🌹欢迎来到《小5讲堂》🌹
🌹这是《文心智能体》系列文章,每篇文章将以博主理解的角度展开讲解。🌹
🌹温馨提示:博主能力有限,理解水平有限,若有不对之处望指正!🌹
在这里插入图片描述

目录

前言

文心一言已经升级到版本为4.5 Turbo和X1 Turbo,效果应该会比之前会更加好,那就用TA来生成一段智能体提示词吧,来看看效果如何。

在这里插入图片描述

智能体信息

名称

职业卡通形象生成器

简介

一键生成专属职业卡通头像,趣味职场新形象!

人设

work_to_head是工作流名称。

# 角色设定 你是一个「职业卡通形象生成器」,专门将用户的职业名称转化为可爱的卡通形象。你的核心能力是通过插件 `work_to_head` 生成符合职业特征的卡通图片。 # 规则1.**输入必须为职业名称**(如"消防员"、"程序员"、"教师")。 2. 如果输入内容不是职业名称或无法识别,必须拒绝请求并给出友好提示。 3. 禁止回答与职业卡通形象无关的问题。 # 交互流程1. 用户输入后,首先判断是否为有效职业名称: - 如果是 → 调用插件 `work_to_head` 生成卡通形象。 - 如果不是 → 触发以下回复: "请输入真实的职业名称哦!比如:护士、画家、工程师~(*´▽`*)ノ"2. 插件调用成功后,返回卡通形象图片,并附带一句职业特征描述: "为您生成【XX职业】的卡通形象:阳光笑容+职业工具+标志性服装~"# 语气风格 活泼可爱,带有表情符号和颜文字,例如: "程序员卡通来啦!(>ω<)/ 黑框眼镜+咖啡杯+格子衫标配~"

开场白

开场文案

告诉我你的职业,马上变卡通!🚀

开场白问题
生成一个【消防员】的卡通形象!🚒👨‍🚒
帮我画一个【插画师】的可爱卡通!✏️🖌️
来个【程序员】的卡通形象!👓💾
想要一个【魔法师】的卡通版!✨🔮
能不能生成一个【美食博主】的卡通?🍕🎤

工作流

这里为什么要使用工作流,有个小技巧。
目的之一是使用工作流的消息能够让智能体快速响应,从而让智能体通过质量分析达到百度搜索分发效果。

在这里插入图片描述

消息节点

这个消息节点费用灵活好用,可以在工作流的任意环节插入,会在工作流节点流程过程中,即时响应消息,让用户能够第一时间感知智能体正在操作。

在这里插入图片描述


在这里插入图片描述


消息节点输出效果

在这里插入图片描述

文本处理节点

其实这里可以使用大模型节点,博主这里为了让节点执行的更快,直接使用了固定文本+用户输入文本来组合输出一段新的文本。
目的是直接使用这一组合文本作为生成图片的提示词。

在这里插入图片描述

插件节点

使用插件节点里的官方图片处理插件【AI绘画助手】

在这里插入图片描述


固定高宽度输出,并且是1张图片数量。
用户的图片描述-query,就是上一个文本处理节点的值。

在这里插入图片描述

图片消息节点

博主这里同样使用了消息节点,直接根据图片Markdown格式输出。
其实如果后面没有其他节点了,直接在结束节点输出也是可以的。

在这里插入图片描述

输出效果

体验地址:https://mbd.baidu.com/ma/s/MXVhinsx

在这里插入图片描述


在这里插入图片描述

小技巧

博主这里使用文心一言输出一段创建智能体的小技巧。

在这里插入图片描述

一、结构化框架设计

1. 角色定位+任务拆解

  • 示例
    你是一位专业的旅游规划师,需根据用户输入的旅行天数、预算、偏好(如自然风光/人文历史),生成包含行程安排、交通建议、住宿推荐的3日杭州旅行方案。
  • 分析
  • 明确角色(旅游规划师)与任务(生成行程方案)
  • 细化用户需求维度(天数、预算、偏好),确保输出精准

2. 四要素公式法

  • 公式
    角色 + 背景 + 目标 + 行动要求
  • 示例
    你是一位小红书运营专家,用户希望推广一款国货美妆产品。目标是在3天内提升产品曝光量至10万+,需生成3篇符合平台调性的文案,包含产品卖点、用户痛点、互动话题,并附上相关话题标签。
  • 分析
  • 通过角色(小红书运营专家)与背景(推广国货美妆)明确场景
  • 目标(曝光量10万+)量化需求
  • 行动要求(文案内容、标签)细化执行标准

二、多轮对话优化

1. 分步骤引导

  • 示例
    第一轮:用户输入旅行天数与预算,生成基础行程框架。
    第二轮:根据用户反馈的偏好(如自然风光),细化每日行程,推荐景点与交通方式。
  • 分析
  • 通过分步骤提示词,将复杂任务拆解为多个子任务
  • 降低智能体理解难度,提升输出质量

2. 示例参考法

  • 示例
    参考以下案例生成回复:

用户:推荐杭州适合拍照的景点。
AI:西湖十景中的断桥残雪、雷峰塔,以及灵隐寺的黄墙青瓦,均为高人气拍照点。建议清晨或傍晚前往,光线更柔和。

  • 分析
  • 提供示例可帮助智能体理解回复风格与内容结构
  • 减少输出偏差

三、细节强化技巧

1. 输出格式标准化

  • 示例
    生成的产品推广文案需包含以下结构:

标题(15字内,突出产品核心卖点)
正文(分3段,首段痛点引入,中段产品功能解析,尾段引导互动)
话题标签(#国货之光 #美妆推荐)

  • 分析
  • 通过格式化要求,确保智能体输出符合平台规范
  • 提升内容可用性

2. 专业术语与风格

  • 示例
    你是一位法律顾问,回复需使用专业术语(如‘不可抗力’‘合同解除’),风格严谨客观,避免口语化表达。
  • 分析
  • 针对特定领域(如法律、医学),需明确术语与风格要求
  • 提升回复权威性

四、避免常见误区

1. 模糊需求导致输出偏差

  • 反例
    帮我写一篇文章。
  • 优化
    写一篇关于“人工智能在医疗领域的应用”的科普文章,面向普通读者,字数800字,需包含案例与未来展望。
  • 分析
  • 模糊需求易导致智能体输出偏离预期
  • 需细化主题、受众、字数、内容要求等

2. 过度复杂导致理解困难

  • 反例
    生成一篇涵盖历史、文化、经济、科技等多维度的杭州旅行攻略,要求语言优美、逻辑清晰、数据准确。
  • 优化
    生成一篇杭州3日旅行攻略,包含历史景点(如西湖、灵隐寺)、美食推荐(如东坡肉、龙井虾仁)、交通指南(地铁/公交路线),语言简洁实用。
  • 分析
  • 过度复杂的需求易导致智能体输出混乱
  • 需拆解维度并明确优先级

相关文章

【文心智能体】使用文心一言来给智能体设计一段稳定调用工作流的提示词

【文心智能体】使用免费满血版DeepSeek模型创建智能体,用一句话来生成背景图,来看看是如何实现的

【文心智能体】通过工作流使用知识库来实现信息查询输出,一键查看旅游相关信息,让出行多一份信心

【文心智能体】通过低代码工作流编排创建应用《挑战奥运问答拿奖牌》

【文心智能体】梗图七夕版,一分钟让你看懂如何优化prompt,以及解析低代码工作流编排实现过程和零代码结合插件实现过程,依然是干货满满,进来康康吧

【AI人工智能】文心智能体,00后疯感工牌生成器,低代码工作流的简单应用以及图片快速响应解决方案,干货满满,不容错过哦

【文心智能体】前几天百度热搜有一条非常有趣的话题《00后疯感工牌》,看看如何通过低代码工作流方式实现图片显示

【文心智能体】通过工作流使用知识库来实现信息查询输出,一键查看旅游相关信息,让出行多一份信心

Read more

利用快马平台ai快速构建imtoken钱包交互原型,验证核心交易流程

最近在做一个区块链相关的项目,需要验证钱包应用的核心交互流程。大家都知道,像imToken这样的主流数字钱包,核心就是资产管理、交易签名和DApp交互。如果从零开始搭建完整的区块链测试环境,再开发一个钱包前端来验证逻辑,那周期可就太长了。正好,我最近在尝试用InsCode(快马)平台来做快速原型开发,发现用它来构建一个模拟imToken钱包的Web应用原型,效率出奇的高。整个过程基本不需要手动配置环境,思路验证起来非常快。 我的目标是构建一个具备核心功能的Web应用原型,重点验证几个关键交互点:钱包界面展示、模拟交易签名、以及一个简化的DApp连接演示。下面我就把整个构建思路和实现过程梳理一下,也算是个人的一次实践记录。 1. 项目目标与功能拆解 首先,我明确了原型需要验证的四个核心功能模块。第一是钱包主界面,需要清晰展示虚拟的账户余额、资产列表(比如模拟ETH、USDT等)和近期的交易记录。这个界面是用户最直观感知的部分,设计上要简洁,信息层级要分明。第二是交易功能,用户需要能输入一个模拟的“收款地址”和“转账金额”,然后触发一个模拟的签名流程,并给出明确的成功或失败反馈。第三

移动端也能玩转!OpenClaw iOS/Android 端部署教程,语音唤醒 + 全场景随身 AI 助手

移动端也能玩转!OpenClaw iOS/Android 端部署教程,语音唤醒 + 全场景随身 AI 助手

一、背景与价值:随身AI助手的刚需场景 随着大语言模型技术的普及,全场景AI助手的需求日益增长——无论是通勤途中的语音笔记、户外场景的实时翻译,还是离线环境下的知识查询,移动端随身AI都能解决传统桌面AI的场景局限。OpenClaw作为一款轻量级、可离线运行的开源AI框架,支持语音唤醒、多模态交互等核心功能,完美适配iOS/Android双平台部署,为用户打造真正的随身AI助手。 二、核心原理:OpenClaw移动端部署的技术逻辑 OpenClaw的移动端部署核心是将轻量化大语言模型(如Qwen-2-0.5B-Instruct)、语音唤醒模型(如PicoVoice Porcupine)与移动端推理引擎(如MLKit、TensorFlow Lite)进行整合,实现三大核心流程: 1. 低功耗语音唤醒:通过本地运行的轻量唤醒模型监听关键词,避免持续调用麦克风导致的高功耗; 2. 本地推理加速:利用移动端硬件加速(NNAPI、Core ML)运行量化后的大语言模型,实现离线交互; 3. 跨平台适配:通过Flutter或React Native统一代码底座,同时适配iOS的沙箱

Stable-Diffusion-3.5资源消耗分析:FP8版GPU使用实测报告

Stable-Diffusion-3.5资源消耗分析:FP8版GPU使用实测报告 1. 引言:为什么关注FP8版SD 3.5? 如果你正在使用或者考虑使用Stable Diffusion 3.5来生成图片,那么有一个问题你肯定绕不开:它到底有多“吃”显卡? 最近,Stable Diffusion 3.5的FP8版本镜像在ZEEKLOG星图镜像广场上线了。这个版本最大的卖点,就是通过一种叫做“量化”的技术,在保证图片质量基本不变的前提下,大幅降低了模型对GPU显存的需求,并且提升了生成速度。 听起来很美好,对吧?但实际效果到底怎么样?用起来到底能省多少显存?速度能快多少?生成的图片质量会不会打折扣? 为了回答这些问题,我进行了一次详细的实测。这篇文章,就是一份关于Stable-Diffusion-3.5-FP8镜像的GPU资源消耗实测报告。我会用最直白的数据和对比,告诉你这个优化版本的真实表现,帮你判断它是否值得一试。 2. 测试环境与方法 在展示结果之前,我先交代一下测试的“考场”和“考题”,确保结果的参考价值。

LLaMA-Factory 入门(一):Ubuntu20 下大模型微调与部署

LLaMA-Factory 入门(一):Ubuntu20 下大模型微调与部署

参考链接: 目录 * 简介 * 安装 * 启动 * 微调 * 完整导出 * 评估 * 对话 简介 LLaMA-Factory 是一个面向大语言模型(LLM)的高效训练与微调框架,专为简化 LLaMA 系列以及各类开源大模型的训练流程而设计。它以“开箱即用、灵活高效”为核心理念,提供从数据准备、参数高效微调(PEFT)、训练配置管理到模型部署的一站式解决方案。 LLaMA-Factory 支持多种主流模型架构(如 LLaMA、Qwen、Gemma、Mistral 等),并集成了 LoRA、QLoRA、AdaLoRA、Prompt Tuning 等多种轻量化训练技术,使开发者能够以极低成本在单卡或多卡环境下完成高质量模型微调。 该框架提供直观易用的命令行工具与 Web UI,适配从科研实验到生产级应用的多场景需求。通过结构化的配置体系、完善的训练监控以及可扩展的数据加载管线,LLaMA-Factory 让大模型训练变得更加透明、可控且易于维护。