基于YOLOv8/YOLOv10/YOLOv11/YOLOv12与SpringBoot的苹果成熟度检测系统(DeepSeek智能分析+web交互界面+前后端分离+YOLO数据

基于YOLOv8/YOLOv10/YOLOv11/YOLOv12与SpringBoot的苹果成熟度检测系统(DeepSeek智能分析+web交互界面+前后端分离+YOLO数据

摘要

随着智慧农业和精准农业的快速发展,利用计算机视觉技术实现水果的自动化检测与分级已成为研究热点。传统的苹果成熟度人工判定方法效率低、主观性强且成本高昂。为此,本研究设计并实现了一个基于深度学习与Web技术的苹果成熟度智能检测系统。本系统的核心在于整合了先进的YOLO(You Only Look Once)系列目标检测模型(包括YOLOv8、v10、v11及v12),构建了一个多成熟度级别的苹果检测模型。系统对包含“20%成熟”、“50%成熟”、“75%成熟”、“100%成熟”及“腐烂”五个类别的专属数据集进行训练与优化,旨在实现高精度、高效率的自动化识别。

为实现技术的工程化落地与便捷交互,本系统采用前后端分离的SpringBoot + Vue.js架构,构建了功能完备的Web交互平台。系统不仅支持图片、视频及摄像头的实时流媒体检测,还创新性地集成了DeepSeek智能分析模型,对检测结果进行语义化解读与报告生成,增强了系统的可解释性与实用性。所有检测记录、用户行为等关键数据均持久化存储于MySQL数据库中,并通过丰富的数据可视化图表进行动态展示,辅助用户进行决策分析。此外,系统配备了完整的用户权限管理体系,包括用户注册登录、个人中心管理及后台管理员操控模块,确保了系统的安全性与可维护性。实验结果表明,本系统能够有效识别不同成熟阶段的苹果,为果园管理、自动化采摘及水果质量监控提供了可靠的技术解决方案,具有较高的实际应用价值。

详细功能展示视频

基于深度学习和千问|DeepSeek的苹果成熟度检测系统(web界面+YOLOv8/YOLOv10/YOLOv11/YOLOv12+前后端分离+python)_哔哩哔哩_bilibili

基于深度学习和千问|DeepSeek的苹果成熟度检测系统(web界面+YOLOv8/YOLOv10/YOLOv11/YOLOv12+前后端分离+python)_哔哩哔哩_bilibilihttps://www.bilibili.com/video/BV1ZPcszSEnd/?vd_source=549d0b4e2b8999929a61a037fcce3b0fhttps://www.bilibili.com/video/BV1ZPcszSEnd/


目录

摘要

一、引言

1.1 研究背景与意义

1.2 国内外研究现状

1.3 本项目主要内容与创新点

二、 系统核心特性概述

功能模块

登录注册模块

可视化模块

图像检测模块

视频检测模块

实时检测模块

图片识别记录管理

视频识别记录管理

摄像头识别记录管理

用户管理模块

数据管理模块(MySQL表设计)

模型训练结果

YOLO概述

YOLOv8

YOLOv10

YOLOv11

YOLOv12

前端代码展示

后端代码展示

项目源码+数据集链接

 项目安装教程


一、引言

1.1 研究背景与意义

苹果作为全球范围内最重要的经济水果之一,其采收时机的判断直接关系到果实品质、贮藏寿命与市场价值。传统的成熟度判定主要依赖果农经验,通过观察果实颜色、大小、硬度等特征,这种方式不仅费时费力,而且标准不一,易造成误判,导致过早或过晚采收,带来巨大的经济损失。在劳动力成本不断攀升和消费市场对水果品质要求日益提高的背景下,发展一种客观、快速、非破坏性的苹果成熟度自动检测技术显得尤为迫切。

近年来,深度学习技术在计算机视觉领域取得了革命性突破,其中目标检测算法在农业视觉任务中展现出巨大潜力。YOLO系列算法以其卓越的检测速度和良好的精度,成为实时视觉应用的优选。与此同时,Web应用开发技术的成熟使得将复杂的AI模型封装为易于使用的在线服务成为可能。因此,构建一个结合前沿YOLO模型现代化Web框架的苹果成熟度检测系统,不仅能够推动人工智能在农业领域的深度融合,也为实现果园智能化管理、构建农产品追溯体系提供了坚实的技术基础,对于促进农业现代化转型具有重要的理论意义与实践价值。

1.2 国内外研究现状

在基于视觉的水果检测方面,国内外学者已进行了广泛研究。早期方法多依赖于传统的图像处理技术,如颜色空间分析、纹理特征提取和形状匹配等。这些方法在受控环境下有一定效果,但对光照变化、遮挡和背景复杂等实际情况的鲁棒性较差。

随着深度学习的兴起,基于卷积神经网络(CNN)的方法成为主流。Faster R-CNN、SSD和YOLO等通用目标检测框架被成功应用于水果识别、计数和缺陷检测。特别是YOLO系列,因其“单阶段”的端到端设计,在速度和精度之间取得了优异平衡。最新的YOLOv8及之后版本(v10, v11, v12)在网络结构、训练策略和损失函数上持续优化,为高精度实时检测提供了更强的模型基础。

然而,现有研究大多集中于水果的“有无检测”或简单分类,专门针对苹果连续成熟度(如20%, 50%, 75%, 100%)的精细分级,并同时涵盖“腐烂”状态的研究相对较少。此外,大多数研究成果停留在算法层面,缺乏一个集模型推理、数据管理、用户交互和智能分析于一体的完整业务系统。将AI模型与Web系统深度集成,提供从数据上传、智能分析到历史记录管理的全链路服务,是当前研究向实际应用转化的关键环节。

1.3 本项目主要内容与创新点

本项目旨在弥合算法研究与实际应用之间的鸿沟,开发一个功能全面、性能优异的苹果成熟度检测系统。主要内容如下:

  1. 构建专属的苹果成熟度数据集:精心收集并标注了包含20-_ripeness, 50-_ripeness, 75-_ripeness, 100-_ripenessrotten_apple五个类别的苹果图像数据集,总计超过2700张图像,并划分为训练集、验证集和测试集,为模型训练与评估提供了可靠的数据基础。
  2. 集成与对比前沿YOLO模型:系统同时集成了YOLOv8, YOLOv10, YOLOv11, YOLOv12四种最新的模型架构,允许用户根据对精度和速度的不同需求进行灵活切换与比较,提升了系统的技术先进性与灵活性。
  3. 实现多模态检测与数据持久化:系统支持图片上传检测、视频文件分析以及摄像头实时流检测三种输入模式,满足不同场景需求。所有检测结果(包括图像、类别、置信度、时间戳)均结构化保存至MySQL数据库,便于追溯与分析。
  4. 开发功能完备的Web交互平台:采用前后端分离架构,后端基于SpringBoot提供RESTful API,前端构建直观的用户界面。功能模块包括:
    • 用户系统:完整的注册、登录、个人中心(信息修改、头像上传)。
    • 核心检测功能:集成了模型切换、文件上传、实时视频流播放与检测框显示。
    • 记录管理:图片、视频、摄像头检测记录、详情查看与删除管理。
    • 智能分析模块:调用DeepSeek大语言模型API,对检测结果进行深入分析与文本总结,生成易于理解的报告。
    • 数据可视化:通过图表展示检测统计、用户活跃度等关键指标。
    • 后台管理:管理员可对系统用户进行增删改查等管理操作。
  5. 创新点总结
    • 多模型可切换架构:在一个系统中集成并对比多个最新YOLO变体,为用户提供了模型选择权,并便于进行性能评估。
    • AI增强的智能分析:超越单纯的视觉检测,结合DeepSeek大模型对检测结果进行语义理解和知识增强,提供决策支持。
    • 一体化的工程实践:从数据标注、模型训练、后端服务、前端交互到数据库设计,实现了一个从算法到产品的完整闭环,具备高度的工程化与实用性。

二、 系统核心特性概述

功能模块


✅ 用户登录注册:支持密码检测,保存到MySQL数据库。

✅ 支持四种YOLO模型切换,YOLOv8、YOLOv10、YOLOv11、YOLOv12。

✅ 信息可视化,数据可视化。

✅ 图片检测支持AI分析功能,deepseek

✅ 支持图像检测、视频检测和摄像头实时检测,检测结果保存到MySQL数据库。

✅ 图片识别记录管理、视频识别记录管理和摄像头识别记录管理。

✅ 用户管理模块,管理员可以对用户进行增删改查。

✅ 个人中心,可以修改自己的信息,密码姓名头像等等。


 

登录注册模块

可视化模块

图像检测模块

  • YOLO模型集成 (v8/v10/v11/v12)
  • DeepSeek多模态分析
  • 支持格式:JPG/PNG/MP4/RTSP

视频检测模块

实时检测模块

图片识别记录管理

视频识别记录管理

摄像头识别记录管理

用户管理模块

数据管理模块(MySQL表设计)

  • users - 用户信息表
  • imgrecords- 图片检测记录表
  • videorecords- 视频检测记录表
  • camerarecords- 摄像头检测记录表

模型训练结果

#coding:utf-8 #根据实际情况更换模型 # yolon.yaml (nano):轻量化模型,适合嵌入式设备,速度快但精度略低。 # yolos.yaml (small):小模型,适合实时任务。 # yolom.yaml (medium):中等大小模型,兼顾速度和精度。 # yolob.yaml (base):基本版模型,适合大部分应用场景。 # yolol.yaml (large):大型模型,适合对精度要求高的任务。 from ultralytics import YOLO model_path = 'pt/yolo12s.pt' data_path = 'data.yaml' if __name__ == '__main__': model = YOLO(model_path) results = model.train(data=data_path, epochs=500, batch=64, device='0', workers=0, project='runs', name='exp', ) 

YOLO概述

YOLOv8

YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日发布,在准确性和速度方面提供了尖端性能。基于先前 YOLO 版本的进步,YOLOv8 引入了新功能和优化,使其成为各种应用中目标检测任务的理想选择。

YOLOv8 的主要特性

  • 高级骨干和颈部架构: YOLOv8 采用最先进的骨干和颈部架构,从而改进了特征提取和目标检测性能。
  • 无锚点分离式 Ultralytics Head: YOLOv8 采用无锚点分离式 Ultralytics head,与基于锚点的方法相比,这有助于提高准确性并提高检测效率。
  • 优化的准确性-速度权衡: YOLOv8 专注于在准确性和速度之间保持最佳平衡,适用于各种应用领域中的实时对象检测任务。
  • 丰富的预训练模型: YOLOv8提供了一系列预训练模型,以满足各种任务和性能要求,使您更容易为特定用例找到合适的模型。

YOLOv10

YOLOv10 由 清华大学研究人员基于 Ultralytics Python构建,引入了一种新的实时目标检测方法,解决了先前 YOLO 版本中存在的后处理和模型架构缺陷。通过消除非极大值抑制 (NMS) 并优化各种模型组件,YOLOv10 以显著降低的计算开销实现了最先进的性能。大量实验表明,它在多个模型尺度上都具有卓越的精度-延迟权衡。

概述

实时目标检测旨在以低延迟准确预测图像中的对象类别和位置。YOLO 系列因其在性能和效率之间的平衡而一直处于这项研究的前沿。然而,对 NMS 的依赖和架构效率低下阻碍了最佳性能。YOLOv10 通过引入用于无 NMS 训练的一致双重分配和整体效率-准确性驱动的模型设计策略来解决这些问题。

架构

YOLOv10 的架构建立在之前 YOLO 模型优势的基础上,同时引入了几项关键创新。该模型架构由以下组件组成:

  1.  骨干网络:负责特征提取,YOLOv10 中的骨干网络使用增强版的 CSPNet (Cross Stage Partial Network),以改善梯度流并减少计算冗余。
  2. Neck:Neck 的设计目的是聚合来自不同尺度的特征,并将它们传递到 Head。它包括 PAN(路径聚合网络)层,用于有效的多尺度特征融合。
  3. One-to-Many Head:在训练期间为每个对象生成多个预测,以提供丰富的监督信号并提高学习准确性。
  4. 一对一头部:在推理时为每个对象生成一个最佳预测,以消除对NMS的需求,从而降低延迟并提高效率。

主要功能

  1. 免NMS训练:利用一致的双重分配来消除对NMS的需求,从而降低推理延迟。
  2. 整体模型设计:从效率和准确性的角度对各种组件进行全面优化,包括轻量级分类 Head、空间通道解耦下采样和秩引导块设计。
  3. 增强的模型功能: 结合了大内核卷积和部分自注意力模块,以提高性能,而无需显着的计算成本。

YOLOv11

YOLO11 是 Ultralytics YOLO 系列实时目标检测器的最新迭代版本,它以前沿的精度、速度和效率重新定义了可能性。YOLO11 在之前 YOLO 版本的显著进步基础上,在架构和训练方法上进行了重大改进,使其成为各种计算机视觉任务的多功能选择。

主要功能

  • 增强的特征提取: YOLO11 采用改进的 backbone 和 neck 架构,从而增强了特征提取能力,以实现更精确的目标检测和复杂的任务性能。
  • 优化效率和速度: YOLO11 引入了改进的架构设计和优化的训练流程,从而提供更快的处理速度,并在精度和性能之间保持最佳平衡。
  • 更高精度,更少参数: 随着模型设计的进步,YOLO11m 在 COCO 数据集上实现了更高的 平均精度均值(mAP),同时比 YOLOv8m 少用 22% 的参数,在不牺牲精度的情况下提高了计算效率。
  • 跨环境的适应性: YOLO11 可以无缝部署在各种环境中,包括边缘设备、云平台和支持 NVIDIA GPU 的系统,从而确保最大的灵活性。
  • 广泛支持的任务范围: 无论是目标检测、实例分割、图像分类、姿势估计还是旋转框检测 (OBB),YOLO11 都旨在满足各种计算机视觉挑战。

Ultralytics YOLO11 在其前代产品的基础上进行了多项重大改进。主要改进包括:

  • 增强的特征提取: YOLO11 采用了改进的骨干网络和颈部架构,增强了特征提取能力,从而实现更精确的目标检测。
  • 优化的效率和速度: 改进的架构设计和优化的训练流程提供了更快的处理速度,同时保持了准确性和性能之间的平衡。
  • 更高精度,更少参数: YOLO11m 在 COCO 数据集上实现了更高的平均 精度均值 (mAP),同时比 YOLOv8m 少用 22% 的参数,在不牺牲精度的情况下提高了计算效率。
  • 跨环境的适应性: YOLO11 可以部署在各种环境中,包括边缘设备、云平台和支持 NVIDIA GPU 的系统。
  • 广泛支持的任务范围: YOLO11 支持各种计算机视觉任务,例如目标检测、实例分割、图像分类、姿势估计和旋转框检测 (OBB)。

YOLOv12

YOLO12引入了一种以注意力为中心的架构,它不同于之前YOLO模型中使用的传统基于CNN的方法,但仍保持了许多应用所需的实时推理速度。该模型通过在注意力机制和整体网络架构方面的新颖方法创新,实现了最先进的目标检测精度,同时保持了实时性能。尽管有这些优势,YOLO12仍然是一个社区驱动的版本,由于其沉重的注意力模块,可能表现出训练不稳定、内存消耗增加和CPU吞吐量较慢的问题,因此Ultralytics仍然建议将YOLO11用于大多数生产工作负载。

主要功能

  • 区域注意力机制: 一种新的自注意力方法,可以有效地处理大型感受野。它将 特征图 分成 l 个大小相等的区域(默认为 4 个),水平或垂直,避免复杂的运算并保持较大的有效感受野。与标准自注意力相比,这大大降低了计算成本。
  • 残差高效层聚合网络(R-ELAN):一种基于 ELAN 的改进的特征聚合模块,旨在解决优化挑战,尤其是在更大规模的以注意力为中心的模型中。R-ELAN 引入:
    • 具有缩放的块级残差连接(类似于层缩放)。
    • 一种重新设计的特征聚合方法,创建了一个类似瓶颈的结构。
  • 优化的注意力机制架构:YOLO12 精简了标准注意力机制,以提高效率并与 YOLO 框架兼容。这包括:
    • 使用 FlashAttention 来最大限度地减少内存访问开销。
    • 移除位置编码,以获得更简洁、更快速的模型。
    • 调整 MLP 比率(从典型的 4 调整到 1.2 或 2),以更好地平衡注意力和前馈层之间的计算。
    • 减少堆叠块的深度以改进优化。
    • 利用卷积运算(在适当的情况下)以提高其计算效率。
    • 在注意力机制中添加一个7x7可分离卷积(“位置感知器”),以隐式地编码位置信息。
  • 全面的任务支持: YOLO12 支持一系列核心计算机视觉任务:目标检测、实例分割、图像分类、姿势估计和旋转框检测 (OBB)。
  • 增强的效率: 与许多先前的模型相比,以更少的参数实现了更高的准确率,从而证明了速度和准确率之间更好的平衡。
  • 灵活部署: 专为跨各种平台部署而设计,从边缘设备到云基础设施。

主要改进

  1. 增强的 特征提取:
    • 区域注意力: 有效处理大型感受野,降低计算成本。
    • 优化平衡: 改进了注意力和前馈网络计算之间的平衡。
    • R-ELAN:使用 R-ELAN 架构增强特征聚合。
  2. 优化创新:
    • 残差连接:引入具有缩放的残差连接以稳定训练,尤其是在较大的模型中。
    • 改进的特征集成:在 R-ELAN 中实现了一种改进的特征集成方法。
    • FlashAttention: 整合 FlashAttention 以减少内存访问开销。
  3. 架构效率:
    • 减少参数:与之前的许多模型相比,在保持或提高准确性的同时,实现了更低的参数计数。
    • 简化的注意力机制:使用简化的注意力实现,避免了位置编码。
    • 优化的 MLP 比率:调整 MLP 比率以更有效地分配计算资源。

前端代码展示

首页界面一小部分代码:

<template> <div> <el-row :gutter="15"> <el-col :xs="24" :sm="14" :md="14" :lg="16" :xl="16"> <div> <div ref="homeLineRef"></div> </div> </el-col> <el-col :xs="24" :sm="10" :md="10" :lg="8" :xl="8"> <div> <div ref="homePieRef"></div> </div> </el-col> </el-row> <el-row :gutter="15"> <el-col :xs="24" :sm="14" :md="14" :lg="8" :xl="8"> <div> <div ref="homeradarRef"></div> </div> </el-col> <el-col :xs="24" :sm="10" :md="10" :lg="16" :xl="16"> <div> <div>实时检测记录</div> <div> <div> <el-table :data="state.paginatedData" v-loading="state.loading"> <el-table-column prop="username" label="操作员" /> <el-table-column prop="label" label="成熟度"> <template #default="scope"> <el-tag :type="getResultType(scope.row.label)" effect="light" > {{ formatLabel(scope.row.label) }} </el-tag> </template> </el-table-column> <el-table-column prop="confidence" label="置信度"> <template #default="scope"> {{ formatConfidence(scope.row.confidence) }} </template> </el-table-column> <el-table-column prop="weight" label="模型版本" /> <el-table-column prop="conf" label="检测阈值" /> <el-table-column prop="startTime" label="检测时间" /> <el-table-column label="操作"> <template #default="scope"> <el-button link type="primary" size="small" @click="handleViewDetail(scope.row)"> 详情 </el-button> </template> </el-table-column> </el-table> <div> <el-pagination v-model:current-page="state.currentPage" v-model:page-size="state.pageSize" :page-sizes="[10, 20, 50, 100]" :small="true" :layout="layout" :total="state.total" @size-change="handleSizeChange" @current-change="handleCurrentChange" /> </div> </div> </div> </div> </el-col> </el-row> <!-- 详情弹窗 --> <el-dialog v-model="state.detailDialogVisible" :title="`苹果成熟度检测详情 - ${state.selectedRecord?.username || ''}`" :close-on-click-modal="false" :close-on-press-escape="false" center > <div v-loading="state.detailLoading"> <el-row :gutter="20"> <!-- 检测图片 --> <el-col :xs="24" :sm="12" :md="12" :lg="12" :xl="12"> <div> <h3>原始图像</h3> <div> <div @click="previewImage(getImageUrl(state.selectedRecord?.inputImg), '原始图像')"> <img :src="getImageUrl(state.selectedRecord?.inputImg)" alt="原始图像" v-if="state.selectedRecord?.inputImg" /> <div v-if="state.selectedRecord?.inputImg"> <el-icon><View /></el-icon> </div> <div v-else> <el-icon><Picture /></el-icon> <span>暂无原始图像</span> </div> </div> </div> </div> </el-col> <!-- 检测信息 --> <el-col :xs="24" :sm="12" :md="12" :lg="12" :xl="12"> <div> <h3>检测信息</h3> <el-descriptions :column="1" border> <el-descriptions-item label="操作员"> {{ state.selectedRecord?.username || '未知' }} </el-descriptions-item> <el-descriptions-item label="成熟度"> <el-tag :type="getResultType(state.selectedRecord?.label || '')" effect="light" > {{ formatLabel(state.selectedRecord?.label || '') }} </el-tag> </el-descriptions-item> <el-descriptions-item label="置信度"> {{ formatConfidence(state.selectedRecord?.confidence || '') }} </el-descriptions-item> <el-descriptions-item label="模型版本"> {{ state.selectedRecord?.weight || '未知' }} </el-descriptions-item> <el-descriptions-item label="检测阈值"> {{ state.selectedRecord?.conf || '未知' }} </el-descriptions-item> <el-descriptions-item label="检测时间"> {{ state.selectedRecord?.startTime || '未知' }} </el-descriptions-item> <el-descriptions-item label="成熟度详情" v-if="hasDetectionDetails"> <div> <div v-for="(item, index) in getDetectionDetails()" :key="index" > <span>{{ item.label }}:</span> <span>{{ item.confidence }}</span> </div> </div> </el-descriptions-item> </el-descriptions> </div> </el-col> </el-row> <!-- 原图与检测结果对比 --> <el-row :gutter="20" v-if="state.selectedRecord?.inputImg || state.selectedRecord?.outImg"> <el-col :xs="24" :sm="12" :md="12" :lg="12" :xl="12"> <div> <h3>原始图像</h3> <div> <div @click="previewImage(getImageUrl(state.selectedRecord.inputImg), '原始图像')"> <img :src="getImageUrl(state.selectedRecord.inputImg)" alt="原始图像" v-if="state.selectedRecord?.inputImg" /> <div v-if="state.selectedRecord?.inputImg"> <el-icon><View /></el-icon> </div> <div v-else> <el-icon><Picture /></el-icon> <span>暂无原始图像</span> </div> </div> </div> </div> </el-col> <el-col :xs="24" :sm="12" :md="12" :lg="12" :xl="12"> <div> <h3>成熟度标注图像</h3> <div> <div @click="previewImage(getImageUrl(state.selectedRecord.outImg), '成熟度标注图像')"> <img :src="getImageUrl(state.selectedRecord.outImg)" alt="成熟度标注图像" v-if="state.selectedRecord?.outImg" /> <div v-if="state.selectedRecord?.outImg"> <el-icon><View /></el-icon> </div> <div v-else> <el-icon><Picture /></el-icon> <span>暂无成熟度标注图像</span> </div> </div> </div> </div> </el-col> </el-row> </div> <template #footer> <span> <el-button @click="state.detailDialogVisible = false">关闭</el-button> <el-button type="primary" @click="handleDownloadImage" :disabled="!state.selectedRecord?.inputImg"> <el-icon><Download /></el-icon> 下载检测图像 </el-button> </span> </template> </el-dialog> <!-- 图片预览弹窗 --> <el-dialog v-model="state.previewDialog.visible" :title="state.previewDialog.title" align-center> <div> <img :src="state.previewDialog.imageUrl" :alt="state.previewDialog.title" /> </div> </el-dialog> </div> </template>

后端代码展示

 详细功能展示视频

基于深度学习和千问|DeepSeek的苹果成熟度检测系统(web界面+YOLOv8/YOLOv10/YOLOv11/YOLOv12+前后端分离+python)_哔哩哔哩_bilibili

基于深度学习和千问|DeepSeek的苹果成熟度检测系统(web界面+YOLOv8/YOLOv10/YOLOv11/YOLOv12+前后端分离+python)_哔哩哔哩_bilibilihttps://www.bilibili.com/video/BV1ZPcszSEnd/?vd_source=549d0b4e2b8999929a61a037fcce3b0fhttps://www.bilibili.com/video/BV1ZPcszSEnd/

Read more

人工智能|大模型 —— 开发 —— opencode与agent skills的安装与使用

人工智能|大模型 —— 开发 —— opencode与agent skills的安装与使用

一、Skills下载源 常用的GitHub仓库: 1、https://github.com/anthropics/skills 2、https://github.com/nextlevelbuilder/ui-ux-pro-max-skill 3、https://github.com/hesreallyhim/awesome-claude-code 4、https://github.com/ComposioHQ/awesome-claude-skills Agent Skills市场: Agent Skills 市场 - Claude、Codex 和 ChatGPT Skills | SkillsMP Open Agent Skills Ecosystem: The Agent Skills Directory ClawHub: ClawHub 二、

终于,我把 Openclaw 加 Seed2.0 Skills 做 AI 漫剧搞定了

终于,我把 Openclaw 加 Seed2.0 Skills 做 AI 漫剧搞定了

这是苍何的第 500 篇原创! 大家好,我是苍何。 不知不觉,500 篇原创啦。年前开源的 AI 漫导开源项目也 1.1 k star 了。 最近玩 Openclaw 又玩的跟个疯狗似的,给我的小龙虾装了很多实用技能,可以自动写小红书图文,可以自动写作,配图,生成封面等。 但感觉生活还是很无趣,于是又花了一些时间,开发了个 AI 漫剧视频生成 Skills,给小龙虾使用。 准确的说,这是个基于字节 Seed2.0 的技能包,有以下子技能。 「seedance-video」:文生视频、图生视频,seedance 1.5 Pro 版本还自带音频生成,属于基本盘。 等seedance 2.0 的

AI 编程黄金搭档:Superpowers Skills × OpenSpec 实战指南

AI 编程黄金搭档:Superpowers Skills × OpenSpec 实战指南

前言 在 AI 编程时代,开发者面临两大核心挑战:一是需求与规范的模糊性导致 AI 生成代码偏离预期,二是缺乏标准化执行流程导致代码质量参差不齐。而 Superpowers Skills 与 OpenSpec 的结合,恰好解决了这两个痛点 ——OpenSpec 负责 “做什么”,确保需求清晰、变更可追溯;Superpowers Skills 负责 “怎么做”,保证执行规范、质量可靠。两者相辅相成,共同构建了高效、可靠的 AI 编程闭环。 本文将从核心互补关系、最佳结合场景、实操工作流到复杂案例,全面讲解如何将这两款工具结合使用,让你的 AI 编程效率翻倍,代码质量更上一层楼。 一、核心互补关系:为什么它们是黄金搭档? Superpowers Skills 与 OpenSpec 并非简单叠加,而是形成了 “规范

DeerFlow深度解析:字节跳动开源的超级智能体框架,重新定义AI Agent开发范式

DeerFlow深度解析:字节跳动开源的超级智能体框架,重新定义AI Agent开发范式

摘要 DeerFlow 2.0是字节跳动于2026年2月开源的全栈AI智能体框架,基于LangGraph 1.0重构,上线即登顶GitHub Trending榜首。作为OpenAI Deep Research的开源替代方案,DeerFlow创新性地将子代理、记忆系统、Docker沙箱和可扩展技能整合为统一的"SuperAgent Harness",支持从分钟级到小时级的复杂任务自动化。其核心亮点包括:子代理并行调度(效率提升3-5倍)、真实Docker沙箱执行环境、Markdown技能系统、长短期记忆机制,以及对MCP协议的完整支持。本文将深入剖析DeerFlow的技术架构、核心原理、安装部署流程,并与AutoGPT、LangChain、CrewAI等主流框架进行全面对比,帮助你快速上手这一2026年最值得关注的开源AI Agent项目。 一、技术背景与行业痛点 1.1 AI Agent的演进历程 人工智能领域正在经历从"对话式AI"到"执行式AI"的范式转变。