AI 开发必用的4个skills组合,用来流畅掌控AI开发流程 ,灵活控制AI(opencode skills)

AI 开发必用的4个skills组合,用来流畅掌控AI开发流程 ,灵活控制AI(opencode skills)

skills 一种技能增强器。

skills 可以理解为升级版的提示词,它的文件记录了某个skill(技能)的元信息,就是描述这个skills的名称等信息,

另外它的文件中还记录了skills的技能实现步骤。

以下4个skills在AI项目开发中,我认为必不可缺一。

这4个skills的引入,可更为方便我们去介入AI,控制AI,给AI制定边界。

我会用一个音乐机器人项目开发来介绍这4个skills,如何介入AI开发流程,如何行云流水的控制AI。

指令式 控制AI 开发流程的主控调度器:有4个SIKLLS

在我的项目中.opencode目录中存在4个skills,

4个skills技能结合和.opencode目录同级的AGNETS.md文档,AGNETS.md是主控配置文件,

是AI 开发流程的主控调度器,负责协调三个专业技能包(毒蛇产品经理、UI设计师、全栈开发工程师、ui-ux-pro-max)

ui-ux-pro-max技能包,我120%的推荐,减少了不少UI配色的塑料感,可在文末看我此次,用技能包开发的UI界面,做一个效果对比。

skills技能指令:

我已经打包好了,想用这4个skills 的朋友,后台留言发送skills,我可分享。

dev-builder (全栈开发工程师)

/dev /run

ui-ux-pro-max (UI/UX设计智能)提供UI/UX设计指南和最佳实践,50种UI风格指南,21种配色方案…

/dev

ui-prompt-generator (UI提示词设计师)
根据产品文档生成原型图提示词,选择合适的视觉风格确定配色方案,生成UI-Prompts.md文件

/ui

product-spec-builder (毒蛇产品经理)生成Product-Spec.md和变更记录, 毒舌产品经理,不接受模糊回答,直接指出问题

/prd

4个Skills的作用说明:

  1. product-spec-builder (毒蛇产品经理)需求收集和产品文档编写,询问用户核心想法和功能需求,追问功能细节(输入、输出、业务规则),生成Product-Spec.md和变更记录, "毒舌"产品经理,不接受模糊回答,直接指出问题。
  2. ui-prompt-generator (UI提示词设计师)根据产品文档生成原型图提示词,理解产品需求并提炼核心功能,选择合适的视觉风格确定配色方案,为每个核心功能生成提示词(多个版本)生成UI-Prompts.md文件。
  3. ui-ux-pro-max (UI/UX设计智能)提供UI/UX设计指南和最佳实践,50种UI风格指南(玻璃态、极简、暗黑模式等),21种配色方案,50种字体配对,20种图表类型推荐,9种技术栈最佳实践(React、Next.js、Vue、Svelte等)。
  4. dev-builder (全栈开发工程师)
    根据产品需求文档实现功能代码,选择合适的技术栈(React/Vue/Next.js等)搭建项目结构和开发环境,实现核心功能代码确保代码质量和可维护性,集成AI功能(如OpenAI API)。
01 安装opencode

opencode mac/win版安装指令:

curl -fsSL https://opencode.ai/install |bashnpm i -g opencode-ai 
02 选择项目开发AI模型

免费的模型有:GLM-4.7、Grok Code,我本次使用的GLM-4.7模型。ctrl + p 即可选择模型。


03 开始项目 (音乐机器人项目开发)
04 毒蛇产品经理 (product-spec-builder)
/prd 毒蛇产品经理 开始明确产品开发需求,产品经理会渐进式的追问你的开发需求,一些列的追问。

我的开发需求:

我想做一个音乐视觉效果:根据音频的输入和音频中歌词的演唱,达到一个动画人物在自动演唱(有人物口型和表情、还有人物的一些演唱基本肢体动作)。API配置 - 视觉动作分析使用qwen3-vl-plus,音频歌词识别gemini_2_5_pro 。
05 Product-Spec.md已生成变更记录
产品需求文档明确后,就会记录一条开发进度。
06 UI提示词生成 (ui-prompt-generator)
skills UI原型图提示词生成
07 UI/UX设计智能 (ui-ux-pro-max)
UI-Prompts.md 借助文档中的提示词UI原型图要求,并且使用skills中的ui-ux-pro-max开发应用 /dev
08 代码开发实现 (dev-builder)
音乐机器人有音频歌词解析,歌词同步,就要接入一个音频分析模型,我这里接入的gemini2.5,

音乐机器人视觉效果接入的qwen3模型
09 项目完成
可以看看效果,比起平时我们前端开发出来的UI效果,是不是惊艳多了,配色、图形都没有AI的那种塑料感。
写在最后

skills我估计原本是在IDE编辑器中类似一个插件出现,只不过skills它是以文件的形式来作为一个插件,然后这个插件可以对接claude、opencode这些AI平台。

skills(毒蛇产品经理、UI提示词设计师、UI/UX设计智能、代码开发实现)优化项目开发流程,能显著提升效率和质量。

各技能模块化分工,减少沟通成本,确保需求从产品到实现的无缝衔接。自动化生成UI提示和设计,降低错误率;专业技能集成,保证产品符合最佳实践。并行处理任务(如提示生成与设计),加快开发周期;智能工具减少手动工作量。结合UI/UX智能和代码实现,推动创意落地,提升用户体验和产品竞争力。

skills 想用这4个skills 的朋友,后台留言发送skills,可分享。

Read more

FPGA实现多协议编码器接口:BISS-C、SSI与多摩川的集成设计

1. 工业编码器接口的统一挑战与FPGA方案 在工业自动化领域,高精度运动控制系统的核心挑战之一是如何高效集成多种编码器协议。不同厂商的编码器采用不同的通信协议,比如BISS-C、SSI和多摩川协议,每种协议都有自己的时序要求、数据格式和校验机制。传统方案往往需要为每种协议设计独立的硬件接口,这不仅增加了系统复杂度,还提高了成本和维护难度。 我在实际项目中多次遇到这样的需求:客户希望用一个控制板卡同时支持多种编码器,但又不愿意增加额外的硬件成本。这时候FPGA的优势就凸显出来了。FPGA的可编程特性允许我们在同一块硬件上实现多种协议接口,通过逻辑资源复用和状态机控制,真正做到"硬件统一、软件定义"。 我记得有一次为数控机床项目设计编码器接口时,就遇到了同时连接BISS-C和多摩川编码器的需求。最初尝试用MCU+多路转换芯片的方案,但实时性总是达不到要求。后来转向FPGA方案,不仅实现了协议兼容,还将响应时间从原来的毫秒级降低到了微秒级。这种性能提升对于高精度运动控制来说是至关重要的。 2. BISS-C协议深度解析与FPGA实现 2.1 BISS-C协议核心机制 BISS

CCF-CSP第38次认证第二题——机器人复健指南(满分题解)

题目背景 西西艾弗岛某山脉深处出土了一台远古机器人,具体年代已不可考。初步修缮后,研究人员尝试操控机器人进行些简单的移动。 题目描述 整个实验场地被划分为 n×n个方格,从 (1,1) 到 (n,n) 进行编号。机器人只能在这些方格间移动,不能走出场地范围。 如下图所示,假设机器人当前位于 (x,y),那么接下来可以向周围八个方向跳跃移动(如果目标方格在场地范围内): 若机器人只能跳动不超过 k 步,场地内有多少方格(包括起始位置)可以抵达? 输入格式 从标准输入读入数据。 输入的第一行包含空格分隔的两个正整数 n 和 k,分别表示场地大小和跳动步数。 输入的第二行包含空格分隔的两个正整数 x 和 y,表示机器人的起始位置(保证位于场地内)。 输出格式 输出到标准输出。 输出一个整数,表示 k 步内可以抵达的方格总数。 样例1输入

【Axure教程】AI自动对话机器人

【Axure教程】AI自动对话机器人

AI对话机器人的应用已经非常广泛,从你日常使用的手机助手到企业复杂的客服系统,背后都有它的身影。所以今天就教大家在Axure里制作Ai对话机器人的原型模版,制作完成后,只需要在中继器表格里输入问题和答案,预览时就可以实现自动回复。具体效果你们可以观看下面的视频或打开原型预览地址亲自体验 【原型效果】 1、在输入框里输入问题后,自动搜索问题列表,如果找到答案,机器人自动回复;如果找不到答案,也会回复引导话术。 2、机器人回复时,会模拟打字输入效果,逐字回复。 3、问题和答案,可以在中继器表格里添加或修改。 【原型预览含下载地址】 https://axhub.im/ax10/bcf9d9e5357143b7/#c=1 【制作教程】 本原型模版主要分成底部背景、欢迎区域、问题列表、对话区域输入区域 1.底部背景 底部背景用矩形和线段制作,如下图所示摆放 2.欢迎区域 欢迎区域包括图标和文字,默认未提问时显示。 3.问题列表 问题列表用中继器制作,中继器里摆放矩形和文本标签,矩形用于显示文字,文本标签用于记录答案,

web开发者快速上手AI Agent:基于Dify平台构建低代码HR招聘应用系统实战

web开发者快速上手AI Agent:基于Dify平台构建低代码HR招聘应用系统实战

图片来源网络,侵权联系删。 文章目录 * 1 引言 * 2 Web开发与AI Agent应用的衔接点:Dify如何成为你的“AI后端” * 3 Agent提示词优化的核心原理:用Web思维理解AI逻辑 * 3.1 上下文管理 = 前端状态管理(State Management) * 3.2 提示词模板 = 组件Props接口 * 4 实战:基于Dify构建低代码HR招聘系统(端到端流程) * 4.1 步骤1:在Dify中创建“简历筛查Agent” * 4.2 步骤2:前端调用(Vue3示例) * 4.3 步骤3:扩展至面试评分 & 智能培训 * 5 常见问题与解决方案(Web开发者视角) * Q1:模型响应慢,影响用户体验? * Q2: