AI 开发必用的4个skills组合,用来流畅掌控AI开发流程 ,灵活控制AI(opencode skills)

AI 开发必用的4个skills组合,用来流畅掌控AI开发流程 ,灵活控制AI(opencode skills)

skills 一种技能增强器。

skills 可以理解为升级版的提示词,它的文件记录了某个skill(技能)的元信息,就是描述这个skills的名称等信息,

另外它的文件中还记录了skills的技能实现步骤。

以下4个skills在AI项目开发中,我认为必不可缺一。

这4个skills的引入,可更为方便我们去介入AI,控制AI,给AI制定边界。

我会用一个音乐机器人项目开发来介绍这4个skills,如何介入AI开发流程,如何行云流水的控制AI。

指令式 控制AI 开发流程的主控调度器:有4个SIKLLS

在我的项目中.opencode目录中存在4个skills,

4个skills技能结合和.opencode目录同级的AGNETS.md文档,AGNETS.md是主控配置文件,

是AI 开发流程的主控调度器,负责协调三个专业技能包(毒蛇产品经理、UI设计师、全栈开发工程师、ui-ux-pro-max)

ui-ux-pro-max技能包,我120%的推荐,减少了不少UI配色的塑料感,可在文末看我此次,用技能包开发的UI界面,做一个效果对比。

skills技能指令:

我已经打包好了,想用这4个skills 的朋友,后台留言发送skills,我可分享。

dev-builder (全栈开发工程师)

/dev /run

ui-ux-pro-max (UI/UX设计智能)提供UI/UX设计指南和最佳实践,50种UI风格指南,21种配色方案…

/dev

ui-prompt-generator (UI提示词设计师)
根据产品文档生成原型图提示词,选择合适的视觉风格确定配色方案,生成UI-Prompts.md文件

/ui

product-spec-builder (毒蛇产品经理)生成Product-Spec.md和变更记录, 毒舌产品经理,不接受模糊回答,直接指出问题

/prd

4个Skills的作用说明:

  1. product-spec-builder (毒蛇产品经理)需求收集和产品文档编写,询问用户核心想法和功能需求,追问功能细节(输入、输出、业务规则),生成Product-Spec.md和变更记录, "毒舌"产品经理,不接受模糊回答,直接指出问题。
  2. ui-prompt-generator (UI提示词设计师)根据产品文档生成原型图提示词,理解产品需求并提炼核心功能,选择合适的视觉风格确定配色方案,为每个核心功能生成提示词(多个版本)生成UI-Prompts.md文件。
  3. ui-ux-pro-max (UI/UX设计智能)提供UI/UX设计指南和最佳实践,50种UI风格指南(玻璃态、极简、暗黑模式等),21种配色方案,50种字体配对,20种图表类型推荐,9种技术栈最佳实践(React、Next.js、Vue、Svelte等)。
  4. dev-builder (全栈开发工程师)
    根据产品需求文档实现功能代码,选择合适的技术栈(React/Vue/Next.js等)搭建项目结构和开发环境,实现核心功能代码确保代码质量和可维护性,集成AI功能(如OpenAI API)。
01 安装opencode

opencode mac/win版安装指令:

curl -fsSL https://opencode.ai/install |bashnpm i -g opencode-ai 
02 选择项目开发AI模型

免费的模型有:GLM-4.7、Grok Code,我本次使用的GLM-4.7模型。ctrl + p 即可选择模型。


03 开始项目 (音乐机器人项目开发)
04 毒蛇产品经理 (product-spec-builder)
/prd 毒蛇产品经理 开始明确产品开发需求,产品经理会渐进式的追问你的开发需求,一些列的追问。

我的开发需求:

我想做一个音乐视觉效果:根据音频的输入和音频中歌词的演唱,达到一个动画人物在自动演唱(有人物口型和表情、还有人物的一些演唱基本肢体动作)。API配置 - 视觉动作分析使用qwen3-vl-plus,音频歌词识别gemini_2_5_pro 。
05 Product-Spec.md已生成变更记录
产品需求文档明确后,就会记录一条开发进度。
06 UI提示词生成 (ui-prompt-generator)
skills UI原型图提示词生成
07 UI/UX设计智能 (ui-ux-pro-max)
UI-Prompts.md 借助文档中的提示词UI原型图要求,并且使用skills中的ui-ux-pro-max开发应用 /dev
08 代码开发实现 (dev-builder)
音乐机器人有音频歌词解析,歌词同步,就要接入一个音频分析模型,我这里接入的gemini2.5,

音乐机器人视觉效果接入的qwen3模型
09 项目完成
可以看看效果,比起平时我们前端开发出来的UI效果,是不是惊艳多了,配色、图形都没有AI的那种塑料感。
写在最后

skills我估计原本是在IDE编辑器中类似一个插件出现,只不过skills它是以文件的形式来作为一个插件,然后这个插件可以对接claude、opencode这些AI平台。

skills(毒蛇产品经理、UI提示词设计师、UI/UX设计智能、代码开发实现)优化项目开发流程,能显著提升效率和质量。

各技能模块化分工,减少沟通成本,确保需求从产品到实现的无缝衔接。自动化生成UI提示和设计,降低错误率;专业技能集成,保证产品符合最佳实践。并行处理任务(如提示生成与设计),加快开发周期;智能工具减少手动工作量。结合UI/UX智能和代码实现,推动创意落地,提升用户体验和产品竞争力。

skills 想用这4个skills 的朋友,后台留言发送skills,可分享。

Read more

RunningHub:AIGC创作平台深度解析

RunningHub:AIGC创作平台深度解析

一、平台核心定位与价值 RunningHub是全球首个基于开源生态的图形音视频AIGC应用共创平台,通过模块化节点系统与云端算力整合,将设计、视频制作、数字内容生成等复杂流程转化为"搭积木式"操作。平台已覆盖全球144个国家用户,日均处理超百万次创作请求,彻底重构了传统内容生产模式。 核心价值 1. 设计平权化 将专业级创作能力赋予普通用户,无需PS/Sketch/AE等软件基础,通过7000+功能节点自由组合即可生成商业级作品。 2. 成本重构 将传统设计中的人力成本(约200-500元/张图)转化为算力成本(0.5-3元/次),降幅达99%。 3. 生态闭环 支持开发者上传节点/工作流并获取收益,形成"创意-开发-复用-变现"的可持续经济模型。 二、技术架构与核心优势 1. 模块化节点系统 通过ComfyUI开源架构深度优化,将AI创作拆解为可拖拽的"原子单元&

Whisper-large-v3语音识别效果评估:人工校验100条样本的准确率与召回率

Whisper-large-v3语音识别效果评估:人工校验100条样本的准确率与召回率 部署说明:本文评测基于由by113小贝二次开发构建的Whisper-large-v3语音识别Web服务,该服务支持99种语言自动检测与转录,采用GPU加速推理。 1. 评测背景与方法 语音识别技术在实际应用中,准确率是用户最关心的核心指标。本次评测旨在通过科学严谨的方法,评估Whisper-large-v3模型在真实场景下的识别性能。 我们采用了以下评测方法: 测试样本构成: * 总样本数:100条音频文件 * 语言分布:中文60条,英文25条,中英混合15条 * 音频类型:清晰录音40条,带背景音30条,多人对话20条,低质量录音10条 * 时长分布:10-30秒短音频70条,30-60秒中长音频20条,1分钟以上长音频10条 评测标准: * 人工逐字校对转录结果 * 统计字级准确率(Character Error Rate) * 计算召回率和精确率 * 记录不同场景下的表现差异 2. 整体识别效果分析 经过对100条样本的详细校验,Whisper-larg

Whisper语音识别:开启本地智能音频处理新时代

Whisper语音识别:开启本地智能音频处理新时代 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 在数字化浪潮席卷各行各业的今天,语音识别技术正以前所未有的速度改变着我们的工作与生活方式。作为OpenAI推出的革命性语音识别模型,Whisper凭借其卓越的本地处理能力和多语言支持,正在重新定义音频内容处理的边界。 技术演进:从云端到本地的范式转移 语音识别技术经历了从传统算法到深度学习的跨越式发展。早期的语音识别系统依赖复杂的声学模型和语言模型,处理精度有限且对计算资源要求极高。随着Transformer架构的广泛应用,语音识别进入了新的发展阶段。 行业洞察:传统云端语音识别虽然便捷,但面临着数据隐私、网络延迟和成本控制三大挑战。Whisper的本地部署方案恰好解决了这些痛点,让用户能够在完全离线的环境中享受专业级的语音转文字服务。 真实场景:语音识别如何重塑工作流程 案例一:法律行业的数字化转型 张律师是一家知名律所的合伙人,每天需要处理

AI 研发提效指南:Copilot与Cursor在敏捷开发中的实战技巧

1. 敏捷开发新搭档:Copilot与Cursor的定位与分工 在敏捷开发的快节奏世界里,每个迭代周期都像是一场与时间的赛跑。需求变更频繁,交付压力巨大,传统的开发工具和流程有时会显得力不从心。我自己在团队里就经历过无数次这样的场景:为了赶一个功能上线,加班加点写代码、做测试,最后发现还是漏掉了一些边界情况。直到我开始系统性地使用 GitHub Copilot 和 Cursor,整个开发体验才发生了质的变化。 简单来说,你可以把 Copilot 看作是你 IDE 里一个经验丰富的“结对编程”伙伴。它深度集成在 Visual Studio Code、IntelliJ IDEA 这些你熟悉的编辑器里,能根据你写的注释或者已有的代码上下文,实时给出下一行甚至下一段代码的建议。我实测下来,在编写一些模板化的代码,比如工具函数、DTO对象、枚举类时,效率提升非常明显,基本上敲完注释,按一下 Tab 键,完整的代码就出来了。它的核心优势在于 “实时、无缝、