OpenClaw Skills 安装与实战:打造你的 AI 技能工具箱

OpenClaw Skills 安装与实战:打造你的 AI 技能工具箱
在这里插入图片描述

OpenClaw Skills 安装与实战:打造你的 AI 技能工具箱

本文介绍如何使用 ClawHub 安装和管理 OpenClaw 技能包,并通过实战案例演示多个技能的协同使用。

前言

OpenClaw 是一个强大的 AI 助手框架,而 Skills(技能包)则是扩展其能力的核心方式。通过安装不同的技能包,你可以让 AI 助手具备搜索、总结、开发指导、自我学习等能力。

本文将带你完成:

  • ClawHub CLI 的安装与使用
  • 多个实用技能包的安装
  • Self-Improving 记忆系统的初始化
  • 一个综合实战案例演示

一、ClawHub:技能包管理器

1.1 什么是 ClawHub

ClawHub 是 OpenClaw 的官方技能包市场,提供了丰富的技能包供用户安装使用。

安装 ClawHub CLI:

npminstall-g clawhub 

1.2 常用命令

命令说明
clawhub search <关键词>搜索技能包
clawhub install <包名>安装技能包
clawhub list查看已安装技能
clawhub update <包名>更新技能包
clawhub update --all更新所有技能

二、搜索与安装技能包

2.1 搜索技能

使用 search 命令查找需要的技能:

clawhub search self-improving 

输出结果:

- Searching xiucheng-self-improving-agent Self Improving Agent (3.689) self-improving-agent-cn Self Improving Agent CN (3.626) self-improving Self-Improving Agent (Proactive Self-Reflection) (2.457) self-evolve Self-Evolve (1.236) ... 

2.2 安装技能

clawhub install self-improving 

2.3 批量安装

建议安装以下实用技能包:

# 搜索技能 clawhub install tavily-search # 文章总结 clawhub install summarize # React 开发指导 clawhub install react # GitHub 操作 clawhub install github # 自我学习 clawhub install self-improving # 理财建议 clawhub install wealth # 主动代理 clawhub install proactive-agent-lite 

2.4 查看已安装技能

clawhub list 

或者直接查看目录:

dir ~/.openclaw/workspace/skills 

三、技能包详解

3.1 Self-Improving:自我学习系统

功能: 让 AI 能够记住你的偏好、纠正和工作模式,实现持续改进。

核心特点:

  • 分层记忆存储(HOT/WARM/COLD)
  • 自动从用户反馈中学习
  • 支持项目级和领域级记忆隔离

目录结构:

~/self-improving/ ├── memory.md # HOT: 总是加载的核心记忆 ├── corrections.md # 修正记录日志 ├── index.md # 主题索引 ├── projects/ # 项目专属记忆 ├── domains/ # 领域知识(编程、写作等) └── archive/ # 归档的记忆 

3.2 Tavily Search:智能搜索

功能: AI 优化的网络搜索,返回简洁、相关的结果。

使用方式:

# 基础搜索node skills/tavily-search-1.0.0/scripts/search.mjs "React 19 新特性"# 指定结果数量node skills/tavily-search-1.0.0/scripts/search.mjs "查询内容"-n10# 深度搜索node skills/tavily-search-1.0.0/scripts/search.mjs "查询内容"--deep# 新闻搜索node skills/tavily-search-1.0.0/scripts/search.mjs "查询内容"--topic news 

配置: 需要设置 TAVILY_API_KEY 环境变量。

3.3 Summarize:文章总结

功能: 快速总结 URL、PDF、图片、音频、YouTube 视频。

使用方式:

# 总结网页 summarize "https://example.com/article"--length medium # 总结 PDF summarize "/path/to/file.pdf"--length short # 总结 YouTube 视频 summarize "https://youtu.be/xxxxx"--youtube auto 

3.4 React:开发指导

功能: 提供生产级 React 开发指导,涵盖架构、状态管理、性能优化等。

核心规则:

  • 服务端状态 ≠ 客户端状态
  • 只使用命名导出
  • 组件 JSX 不超过 50 行
  • 启用 TypeScript strict 模式

3.5 GitHub:仓库操作

功能: 通过 gh CLI 与 GitHub 交互。

# 查看仓库信息 gh repo view owner/repo # 查看最近 PR gh pr list --repo owner/repo --state merged --limit5# 查看 CI 状态 gh pr checks 55--repo owner/repo 

3.6 Wealth:投资理财

功能: 提供全面的财富管理建议,包括:

  • 财务基础建设
  • 投资组合建议
  • 税务优化策略
  • 退休规划
  • 资产保护

四、Self-Improving 初始化配置

4.1 创建目录结构

# Windows PowerShellmkdir-p$env:USERPROFILE\self-improving\projects mkdir-p$env:USERPROFILE\self-improving\domains mkdir-p$env:USERPROFILE\self-improving\archive # Linux/macOSmkdir-p ~/self-improving/{projects,domains,archive}

4.2 创建核心文件

memory.md(核心记忆):

# Memory (HOT Tier) > 总是加载的记忆,存储最重要的偏好和规则 ## Preferences <!-- 用户偏好 --> ## Patterns <!-- 已验证的工作模式 --> ## Rules <!-- 经过确认的规则 --> 

corrections.md(修正记录):

# Corrections Log > 记录用户的修正反馈 | Date | Context | What I Got Wrong | Correct Answer | Learned | |------|---------|-----------------|----------------|---------| 

domains/programming.md(领域记忆):

# Domain: Programming ## Language Preferences - TypeScript > JavaScript - Python 用于数据分析 ## Framework Preferences - 前端:React + Next.js - 状态管理:Zustand - 样式:Tailwind CSS 

4.3 验证安装

对 AI 说 “memory stats”,应返回:

📊 Self-Improving Memory 🔥 HOT (always loaded): memory.md: 0 entries 🌡️ WARM (load on demand): projects/: 0 files domains/: 1 file ❄️ COLD (archived): archive/: 0 files 

五、API Key 配置

5.1 Tavily API

  1. 访问 https://tavily.com 注册账号
  2. 获取 API Key
  3. 设置环境变量:
# Windows(永久)[Environment]::SetEnvironmentVariable("TAVILY_API_KEY", "your-api-key", "User")# Linux/macOSecho'export TAVILY_API_KEY="your-api-key"'>> ~/.bashrc source ~/.bashrc 

5.2 其他 API Keys

服务环境变量用途
OpenAIOPENAI_API_KEYsummarize
AnthropicANTHROPIC_API_KEYsummarize
GoogleGEMINI_API_KEYsummarize

六、综合实战案例

6.1 案例:技术趋势研究助手

场景: 作为开发者,需要跟踪技术动态、快速理解新文章、构建知识库。

工作流:

1. tavily-search → 搜索技术动态 2. summarize → 提取文章要点 3. react → 构建知识展示界面 4. self-improving → 记住偏好 

6.2 实战演示

步骤一:搜索技术动态

node skills/tavily-search-1.0.0/scripts/search.mjs "React 19 new features"-n5

返回结果示例:

## Answer React 19 introduces concurrent rendering, React Server Components, and the useFormStatus hook for managing form state... ## Sources - Exploring the New Features of React 19 - LinkedIn https://www.linkedin.com/pulse/... - What's New in React 19 - Telerik.com https://www.telerik.com/blogs/... 

步骤二:深入阅读文章

summarize "https://www.telerik.com/blogs/whats-new-react-19"--length medium 

步骤三:创建知识卡片组件

根据 react skill 指导:

// TechCard.tsx interface TechCardProps { title: string summary: string source: string tags: string[] } export function TechCard({ title, summary, source, tags }: TechCardProps) { const isSaved = useUIStore((s) => s.savedItems.has(title)) const toggleSave = useUIStore((s) => s.toggleSave) return ( <article className="rounded-lg border p-4 shadow-sm"> <header className="mb-2 flex items-start justify-between"> <h3 className="font-semibold">{title}</h3> <button onClick={() => toggleSave(title)}> {isSaved ? '★' : '☆'} </button> </header> <p className="text-gray-600 text-sm">{summary}</p> <footer className="mt-3 flex gap-2"> {tags.map(tag => ( <span key={tag} className="bg-gray-100 px-2 py-0.5 rounded text-xs"> {tag} </span> ))} </footer> </article> ) } 

步骤四:AI 自动学习偏好

当你告诉 AI:

“我更喜欢 TypeScript,不喜欢 JavaScript”

AI 会自动记录到 ~/self-improving/domains/programming.md

## Language Preferences - 首选:TypeScript - 避免:纯 JavaScript - 原因:类型安全,更好的 IDE 支持 

七、技能协同优势

技能贡献使用频率
tavily-search快速获取高质量搜索结果需要时
summarize压缩长文为精华阅读时
react构建可复用的知识展示界面开发时
self-improving持续学习你的偏好每次会话
github查看项目最新动态开发时
wealth理财建议规划时

八、最佳实践

8.1 记忆管理

  • HOT 层 只放最重要的偏好,不超过 100 行
  • WARM 层 按项目和领域分类
  • COLD 层 定期归档不再使用的模式

8.2 技能使用原则

  1. 按需安装 - 只安装真正需要的技能
  2. 配置优先 - 先配置好 API Key 再使用
  3. 持续学习 - 让 self-improving 自然积累偏好

8.3 工作流建议

日常对话 → AI 自然学习偏好 → 自动记录 ↓ 需要搜索 → tavily-search → summarize 总结 ↓ 需要开发 → react/github 指导 → 项目记忆记录 

九、总结

通过 ClawHub 安装和管理技能包,可以快速扩展 OpenClaw 的能力:

  1. ClawHub 提供了便捷的技能包管理
  2. Self-Improving 实现了 AI 的持续学习
  3. 各技能协同 形成完整的工作流

随着使用时间的增加,AI 会越来越了解你的偏好和工作方式,成为一个真正懂你的智能助手。


相关链接

  • ClawHub 市场:https://clawhub.com
  • OpenClaw 文档:https://docs.openclaw.ai
  • Tavily API:https://tavily.com
  • OpenClaw 社区:https://discord.com/invite/clawd

本文首发于 ZEEKLOG,转载请注明出处。

作者:OpenClaw 用户
日期:2026-03-10

Read more

从 0 到 1 玩转 ClaudeCode:Figma-MCP 前端代码 1:1 还原 UI 设计全流程

ClaudeCode 与 Figma-MCP 简介 ClaudeCode 是 Anthropic 推出的 AI 代码生成工具,擅长将设计稿转换为前端代码。Figma-MCP(Minimum Code Principle)指通过最小代码原则实现高保真 UI 还原,适用于 Vue/React 等现代框架。 环境准备 Figma 设计稿检查 * 确保设计稿使用 Auto Layout 布局,标注间距、字体、颜色等设计 Token。 * 导出必要的 SVG/PNG 资源,检查图层命名规范(如 btn_primary)。 开发环境配置 * 安装 Claude 插件或访问官方 Playground。 初始化前端项目(示例为 Vue3 + TypeScript)

Qwen3-VL-WEBUI GPU配置:4090D最优算力方案详解

Qwen3-VL-WEBUI GPU配置:4090D最优算力方案详解 1. 引言 随着多模态大模型在视觉理解、语言生成和跨模态推理能力上的飞速发展,阿里云推出的 Qwen3-VL 系列模型已成为当前最具竞争力的视觉-语言模型之一。其最新版本不仅在文本与图像融合理解上达到新高度,更在视频分析、GUI代理操作、长上下文建模等方面实现了突破性进展。 对于开发者和研究者而言,如何高效部署并充分发挥 Qwen3-VL 的性能,成为落地应用的关键挑战。本文聚焦于 Qwen3-VL-WEBUI 的本地化部署实践,重点解析基于单张 NVIDIA RTX 4090D 显卡的最优算力配置方案,涵盖环境准备、资源调度、推理优化等核心环节,帮助用户以最低成本实现高性能多模态推理。 本方案适用于希望在消费级硬件上运行 Qwen3-VL-4B-Instruct 模型的开发者,尤其适合个人研究、原型开发和轻量级产品集成场景。 2. Qwen3-VL-WEBUI 核心特性与架构解析 2.1 模型能力全景 Qwen3-VL 是 Qwen 系列中首个真正意义上的“视觉代理”(Visual Agent),

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

目录 【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键 一、求其外,善其内 1、坚持出发点正确的博文写作 2、博文更新对我心态的淬炼 3、社区交流对我视野的启发 4、向外拓展,反哺内修 二、陷入前端则前端死,跳出前端则前端活 1、从不务正业到泛前端 2、从泛前端到大前端,从有形到无形 三、秋招多少事 四、结语         作者:watermelo37         ZEEKLOG优质创作者、华为云云享专家、阿里云专家博主、腾讯云“创作之星”特邀作者、火山KOL、支付宝合作作者,全平台博客昵称watermelo37。         一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。 --------------------------------------------------------------------- 温柔地对待温柔的人,包容的三观就是最大的温柔。

Qwen3-32B显存溢出?量化压缩部署实战让资源节省40%

Qwen3-32B显存溢出?量化压缩部署实战让资源节省40% 你是不是也遇到过这种情况:好不容易找到一个性能强大的大模型,比如Qwen3-32B,结果一部署就发现显存不够用,直接报错“Out of Memory”?看着那动辄几十GB的显存需求,再看看自己有限的显卡资源,是不是感觉心都凉了半截? 别急着放弃。今天我就来分享一个实战技巧——通过量化压缩技术,让你在有限的硬件资源上,也能流畅运行Qwen3-32B这样的“大块头”。经过实测,这个方法能让模型显存占用减少40%以上,而性能损失却微乎其微。 1. 为什么Qwen3-32B会“吃”掉那么多显存? 在开始动手之前,我们先得搞清楚问题出在哪。Qwen3-32B是一个拥有320亿参数的庞然大物,它的“大”主要体现在两个方面: 1.1 参数规模带来的直接负担 模型参数越多,需要存储的数据量就越大。Qwen3-32B的320亿参数,如果都用32位浮点数(FP32)来存储,光是参数本身就需要大约128GB的存储空间。这还没算上推理过程中需要的中间计算结果(激活值)和优化器状态。 1.2 推理过程中的内存开销 模型在运行时,