发现了 4 个好玩 SKills,已经在 GitHub 上开源了。

01

视频剪辑 Skill

这个开源项目是一个视频剪辑 Skill,叫 videocut-skills。

它能够辅助你完成视频处理工作,比如识别视频中的口误、静音片段以及语气词啥的。

通过简单的指令让 AI 自动处理这些多余的内容,提高剪辑效率。

这个 Skill 集成了多种自动化功能,比如使用 Whisper 模型生成字幕,并支持通过词典进行纠错。

它利用 FFmpeg 进行底层的视频剪辑操作,确保了处理速度和质量。智能体还具备自我更新的能力,可以根据用户的使用习惯不断优化剪辑规则。

对于需要频繁制作口播类视频的创作者来说,这个工具提供了一套完整的工作流。

从环境安装到最终成片,只需在对话框中输入相应命令即可完成复杂的剪辑任务。

还挺有意思的。

如何使用

① 下载 Skills 

# 克隆到 Claude Code skills 目录 git clone https://github.com/Ceeon/videocut-skills.git  ~/.claude/skills/videocut

② 安装环境 

打开 Claude Code,输入 /videocut:安装 ,AI 会自动安装依赖、下载模型,大概 5GB。

安装完成你就能用下面这些能力处理你的原素材了。

开源地址:https://github.com/Ceeon/videocut-skills

02

去除 AI 味儿

这个 Skill 我感觉很多人会用到。

它是专门消除文本中 AI 生成痕迹的 Skill。它基于维基百科关于 AI 写作特征的指南,把有 AI 味儿的生成文本改写得更加自然。这个项目是原版 Humanizer 的中文汉化版本。

工具内置了很多检测维度,包括内容、语言语法、风格以及交流模式啥的。

识别出 AI 常有的表达方式,并针对性地进行重写。通过模拟人类的写作习惯,让文章的语气更加真实、生动。

如何使用

①克隆项目 

# 克隆到 Claude Code 的 skills 目录 git clone https://github.com/op7418/Humanizer-zh.git ~/.claude/skills/humanizer-zh

② 验证安装 

重启 Claude Code 或重新加载 skills 后,在对话中输入: /humanizer-zh 如果安装成功,该技能将被激活。

然后你可以直接输入 /humanizer-zh 指令,再接上你想去除 AI 味儿的文本就行了。

开源地址:https://github.com/op7418/Humanizer-zh

03

小红书发布 Skills

这个开源的 Skill 是我从 linux.do 上发现的。

这个 Skill 可以帮你撰写、制作并发布小红书笔记。它结合了内容生成与视觉渲染技术,能够根据你设定的主题自动生成符合平台风格的文案。

目前还比较小众,Star 不是很多。

它利用 Playwright 浏览器自动化技术将 Markdown 文本渲染为精美的图片。还支持自定义背景渐变和封面样式,确保生成的图片既美观又具吸引力。

而且还打通了发布环节,可以模拟操作将制作好的笔记一键发布到小红书。

f628aa846c9e7157bde75683184b8d8e


系统提供了 Python 和 Node.js 两种脚本方案,看你喜欢吧。

下面是安装部署好使用教程。

开源地址:https://github.com/comeonzhj/Auto-Redbook-Skills

04

添加 Skill

这个叫 add-skill 的不是一个具体的 skill 哦。

而是 Vercel Labs 开发的命令行工具,可以帮你把各种 Skill 安装到你的 Claude Code、Codex、Cursor 里面。

它能从 GitHub 项目里面直接提取并配置 Skill 文件,支持主流的编程 AI 助手。

它识别仓库中的标准化配置文件来自动完成安装步骤。不需要手动复制粘贴复杂的文件结构,只需一行命令即可完成配置。

开源地址:https://github.com/vercel-labs/add-skill

05

点击下方卡片,关注逛逛 GitHub

这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:

图片

Read more

从零开始“养龙虾”:OpenClaw 本地极简部署与 QQ 机器人接入全保姆级教程

从零开始“养龙虾”:OpenClaw 本地极简部署与 QQ 机器人接入全保姆级教程

文章目录 * 引言 * 什么是 OpenClaw? * 为什么选择 OpenClaw? * 一、基础环境准备 * 1. 安装 Node.js (v22及以上) * 2.安装 Git * 3. 解决 npm 被拦截(没报错跳过) * 二、一键部署与唤醒“龙虾” * 1.全自动拉取与组装 * 2.醒龙虾与配置“大脑” * 三、接入官方 QQ 机器人(可选) * 1. 领取官方机器人的“身份证” * 2. 本地安装专属通信插件 * 3. 结果展示 * 总结 引言 什么是 OpenClaw? 最近开源界有一只“红皮小龙虾”非常火,它就是 OpenClaw。

By Ne0inhk
Flutter 三方库 wallet_connect 的鸿蒙化适配指南 - 实现 Web3 钱包协议连接、支持 DApp 授权登录与跨链交易签名实战

Flutter 三方库 wallet_connect 的鸿蒙化适配指南 - 实现 Web3 钱包协议连接、支持 DApp 授权登录与跨链交易签名实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 wallet_connect 的鸿蒙化适配指南 - 实现 Web3 钱包协议连接、支持 DApp 授权登录与跨链交易签名实战 前言 在进行 Flutter for OpenHarmony 的去中心化应用(DApp)或加密货币钱包开发时,支持标准的 WalletConnect 协议是链接用户钱包的关键。wallet_connect 是该协议的 Dart 实现,它能让你的鸿蒙 App 安全地与 MetaMask、Trust Wallet 等钱包建立双向加密连接。本文将探讨如何在鸿蒙系统下构建安全、稳定的 Web3 授权流程。 一、原理解析 / 概念介绍 1.1 基础原理

By Ne0inhk

Qwen3-VL-2B部署案例:博物馆导览机器人系统

Qwen3-VL-2B部署案例:博物馆导览机器人系统 1. 引言:视觉语言模型在智能导览中的应用价值 随着人工智能技术的发展,视觉语言模型(Vision-Language Model, VLM)正逐步从实验室走向实际应用场景。在公共服务领域,尤其是博物馆、美术馆等文化场所,智能化导览系统的需求日益增长。传统的语音讲解或静态图文介绍已难以满足用户对交互性、个性化和沉浸式体验的期待。 Qwen3-VL-2B-Instruct 作为阿里云开源的最新一代视觉语言模型,具备强大的图文理解、空间感知与多模态推理能力,为构建高可用的导览机器人系统提供了理想的技术底座。该模型支持图像识别、OCR解析、语义问答、上下文记忆等多种功能,并内置针对指令任务优化的 Instruct 版本,能够快速适配定制化场景。 本文将围绕 Qwen3-VL-2B-Instruct 模型,结合 Qwen3-VL-WEBUI 部署方案,详细介绍其在博物馆导览机器人系统中的落地实践,涵盖环境搭建、功能实现、关键代码及性能优化建议。 2. 技术选型与系统架构设计 2.1 为什么选择 Qwen3-VL-2B-Inst

By Ne0inhk
【PX4+ROS完全指南】从零实现无人机Offboard控制:模式解析与实战

【PX4+ROS完全指南】从零实现无人机Offboard控制:模式解析与实战

引言 无人机自主飞行是机器人领域的热门方向,而PX4作为功能强大的开源飞控,配合ROS(机器人操作系统)的灵活性与生态,成为实现高级自主飞行的黄金组合。然而,许多初学者对PX4的飞行模式理解不清,更不知道如何通过ROS编写可靠的Offboard控制程序。 本文将带你彻底搞懂PX4 6大核心飞行模式,实现无人机的自动起飞、悬停、轨迹跟踪(圆形/方形/螺旋)与降落。 亮点一览: * ✅ 深度解析PX4飞行模式(稳定/定高/位置/自动/Offboard) * ✅ 明确ROS可控制的模式与指令接口 * ✅ 完整的ROS功能包(C++实现,状态机设计) * ✅ 支持位置控制与速度控制双模式 * ✅ 内置圆形、方形、螺旋轨迹生成器 * ✅ 详细的安全机制与失效保护配置 无论你是准备参加比赛、做科研,还是想入门无人机开发,这篇文章都将是你宝贵的参考资料。 第一部分:PX4飞行模式深度剖析 PX4的飞行模式可以看作一个控制权逐级递增的层级结构。理解这些模式是编写控制程序的前提。 1. 稳定模式(STABILIZED / MANUAL / ACRO) * 核心特点:

By Ne0inhk