Everything Claude Code:让 AI 代理真正为你工作的完整系统

Everything Claude Code:让 AI 代理真正为你工作的完整系统

从一次黑客马拉松开始

2026 年初,在 Anthropic 与 Cerebral Valley 联合举办的黑客马拉松上,一个叫 Everything Claude Code(ECC) 的项目拿到了冠军。

但它并没有停留在"获奖作品"的阶段。10 个月、50K+ star、6K+ fork 之后,ECC 已经演化成了一套覆盖 27 个专业 Agent、114 个工作流技能、59 个斜杠命令的生产级 AI 代理增强系统——并在 2026 年 3 月发布了 v1.9.0。

这篇文章想聊清楚:ECC 到底解决了什么问题,它的设计哲学是什么,以及它对"如何用好 AI 编程工具"这件事意味着什么。


问题:大多数人在错误地使用 Claude Code

你可能每天都在用 Claude Code 写代码。你提问,它回答,大部分时候还不错。

但你有没有发现:

  • 同一类错误反复出现,每次都要重新解释上下文
  • 代码写完了,没有人帮你 review 安全漏洞
  • 构建失败时,你和 Claude 都在猜问题在哪
  • 上一个会话学到的"好做法",下一个会话完全忘掉

这些不是 Claude 的问题,是系统的问题。Claude Code 是一个功能强大的工具,但它需要配置、规则、记忆和工作流才能真正发挥出"AI 代理"的能力。

ECC 要做的,就是提供这套完整的系统。


核心设计:Agent 优先的分层架构

ECC 最重要的设计决定,是把"专业分工"贯彻到底。

它不是一个通用的大 Prompt,而是 27 个专业化的子 Agent,每个 Agent 只做一件事,并且做到最好:

场景该用哪个 Agent
规划新功能planner
系统架构决策architect
测试驱动开发tdd-guide
代码质量审查code-reviewer
安全漏洞扫描security-reviewer
构建错误修复build-error-resolver
Go 代码审查go-reviewer
PyTorch 训练错误pytorch-build-resolver
Kotlin/Android 构建kotlin-build-resolver

这种设计有个关键优势:上下文纯净。一个负责安全审查的 Agent,它的整个系统 Prompt 都在讲安全,不会被不相关的信息稀释。


三个让人印象深刻的子系统

1. 持续学习 v2(Instinct System)

ECC 里有一套"本能"系统,可以自动从你的开发会话中提取模式:

/instinct-status # 查看已学到的开发本能(附置信度评分) /instinct-export # 导出分享给团队 /instinct-import <file># 从他人经验导入 /evolve # 把相关本能聚合成可复用的技能

每次开发会话结束,ECC 的 Hook 会自动分析对话,提取"这次发现了什么有价值的模式",附上置信度评分,存入本能库。这些本能可以随着时间推移 evolve 成结构化的技能。

这是在解决一个真实痛点:你和 AI 协作积累的经验,不应该随着会话结束而消失

2. AgentShield 安全审计

构建于 Claude Code Hackathon,1282 个测试,98% 覆盖率,102 条静态分析规则。
# 快速扫描(无需安装) npx ecc-agentshield scan # 启用 Opus 深度分析(红队/蓝队/审计三 Agent 流水线) npx ecc-agentshield scan --opus--stream

--opus 模式会启动三个 Claude Opus Agent 组成"攻防对抗"流水线:攻击者找漏洞利用链,防御者评估保护措施,审计者综合两方输出优先级风险报告。

扫描范围覆盖:CLAUDE.md、settings.json、MCP 配置、Hook 脚本、Agent 定义——14 种密钥泄露模式、权限审计、Hook 注入分析。

3. 结构化 Hook 系统

Hook 是 ECC 的"神经系统"。它在工具调用前后自动触发,实现:

  • 会话开始:加载上次的上下文和学习到的本能
  • 文件编辑后:自动格式化 + TypeScript 检查 + 检测 console.log
  • 提交前:扫描 Prompt 里的密钥(sk-ghp_AKIA 等模式)
  • 会话结束:保存状态,提取模式,生成摘要

通过环境变量可以精细控制 Hook 的严格程度:

exportECC_HOOK_PROFILE=strict # strict / standard / minimalexportECC_DISABLED_HOOKS="pre:bash:tmux-reminder"

不止 Claude Code:跨平台的设计

ECC v1.9.0 支持 5 个主流 AI 开发工具:

  • Claude Code:原生支持,最完整
  • Cursor:DRY 适配器模式,复用所有 Hook 脚本
  • OpenCode:全插件支持,20+ 事件类型
  • Codex(OpenAI):AGENTS.md 自动检测
  • Antigravity--target antigravity 安装标志

在 Cursor 里,适配器把 Cursor 的 stdin JSON 转换为 Claude Code 格式,所有 Hook 脚本无需重写即可共享。这是一个干净的跨平台设计决策。


覆盖 12 种语言生态

v1.9.0 将语言覆盖扩展到 10+ 种:TypeScript、Python、Go、Java、Kotlin、Rust、C++、Swift、PHP、Perl,每种语言都有专属的:

  • 代码审查 Agent
  • 构建错误修复 Agent
  • Coding 规范规则
  • TDD 工作流技能

特别值得一提的是 Kotlin/Android/KMP 支持——这在 AI 编程工具里还比较少见。


安装与快速上手

# 方式一:Claude Code 插件(推荐) /plugin marketplace add affaan-m/everything-claude-code /plugin install everything-claude-code@everything-claude-code # 方式二:手动安装(Windows PowerShell)git clone https://github.com/affaan-m/everything-claude-code.git cd everything-claude-code .\install.ps1 typescript # 按需选择语言

两分钟内即可获得 27 个 Agent、114 个技能、59 个命令的完整访问权限。


这个项目在讲一个更大的故事

ECC 的技术细节固然重要,但它更重要的意义在于:它在定义"AI 代理增强系统"这个品类

它不是要替代 Claude Code,而是要回答"如何让 Claude Code 真正像一个有经验的开发团队一样工作"。答案是:专业分工、持续学习、强制安全检查、跨会话记忆、结构化工作流。

这套思路对于任何想认真使用 AI 编程工具的团队都有参考价值——不管你最终用不用 ECC 本身。


GitHubaffaan-m/everything-claude-code
npmecc-universal(通用安装包)/ ecc-agentshield(安全审计)
GitHub Appgithub.com/marketplace/ecc-tools(150+ 安装)

Read more

SLAM Toolbox实战指南:快速掌握机器人定位与建图核心技术

SLAM Toolbox实战指南:快速掌握机器人定位与建图核心技术 【免费下载链接】slam_toolboxSlam Toolbox for lifelong mapping and localization in potentially massive maps with ROS 项目地址: https://gitcode.com/gh_mirrors/sl/slam_toolbox SLAM Toolbox是一款基于ROS的开源SLAM框架,专门为机器人学和自动驾驶领域设计,提供完整的2D定位与地图构建解决方案。作为一款高效的机器人导航工具,它能够帮助开发者在大规模环境中实现实时、精确的定位与建图。 什么是SLAM Toolbox?核心功能解析 SLAM Toolbox是专为机器人定位与地图构建而设计的强大工具箱,集成了多种先进的SLAM算法和优化技术。无论是室内服务机器人、仓库物流系统,还是智能安防巡逻,都能通过这个工具实现精准导航。 该项目的核心优势在于支持多种运行模式,满足不同应用场景的需求: * 同步建图模式:实时处理所有激光扫描数据,适合小型到中型环境

亲测Z-Image-ComfyUI:AI绘画中文提示词效果惊艳

亲测Z-Image-ComfyUI:AI绘画中文提示词效果惊艳 最近在本地部署了阿里新开源的 Z-Image-ComfyUI 镜像,连续测试了三天,从“试试看”到“真香”,再到“这中文理解也太准了吧”,整个过程像拆开一个层层惊喜的盲盒。最让我意外的不是它出图快、显存占用低,而是——输入一句大白话中文,它真的能听懂、记得住、画得准。 过去用 Stable Diffusion 系列模型时,中文提示词总像隔着一层毛玻璃:写“水墨风山水画”,结果冒出半张人脸;写“穿旗袍的女士坐在苏州园林亭子里”,人物站姿歪斜、亭子比例失真、连“苏州”两个字都可能被误读成“苏洲”。而 Z-Image-Turbo 在同一台 RTX 4090(16G 显存)上跑起来,不仅生成速度肉眼可见地快,更关键的是——它对中文语义的理解,是真正“语义级”的,

FPGA AXI_MIG IP核DDR3带宽优化与读写效率深度解析

1. 理解AXI_MIG IP核与DDR3带宽匹配的核心问题 在实际的FPGA项目开发中,很多工程师都会遇到一个令人头疼的问题:明明DDR3的物理带宽很高,但通过AXI接口实际测得的传输效率却远低于理论值。这个问题我早期做视频处理项目时深有体会,当时用Xilinx的MIG IP核连接DDR3,理论上应该有20Gbps的带宽,但实际测试只有不到12Gbps,数据经常出现错误。 后来经过深入分析发现,问题的核心在于AXI接口带宽与DDR3物理带宽的匹配策略。MIG IP核在配置时有个关键参数叫"PHY to Controller Clock Ratio"(物理层到控制器时钟比例),这个参数直接决定了用户时钟频率与DDR3物理时钟频率的比例关系,进而影响整个系统的带宽匹配。 简单来说,DDR3物理层工作在高速时钟下(比如320MHz),而用户逻辑通过AXI接口与MIG交互时,使用的用户时钟(ui_clk)可以是物理时钟的1/2或1/4。这就产生了一个时钟域转换的问题,如果带宽匹配不当,就会导致数据积压或丢失。 2. MIG IP核关键配置参数深度解析 2.1 时钟比例选择:2:1

Stable Diffusion VS I2VGen-XL:谁更适合做图像转视频?

Stable Diffusion VS I2VGen-XL:谁更适合做图像转视频? 背景与问题提出 随着AIGC(人工智能生成内容)技术的爆发式发展,从静态图像到动态视频的生成能力成为多模态AI的重要前沿。在众多图像转视频(Image-to-Video, I2V)方案中,Stable Diffusion 和 I2VGen-XL 是两个备受关注的技术路径。前者是通用文生图模型,通过扩展实现视频生成;后者则是专为图像驱动视频设计的原生架构。 然而,对于开发者和创作者而言,一个核心问题浮现:当目标是将一张静态图片转化为自然流畅的短视频时,究竟该选择哪个技术路线? 本文基于实际项目“Image-to-Video图像转视频生成器”的二次开发经验(by科哥),深入对比 Stable Diffusion 与 I2VGen-XL 在图像转视频任务中的表现差异、技术原理、工程落地难点及适用场景,帮助你做出更明智的技术选型。 技术本质解析:两种不同的生成逻辑 Stable Diffusion:文生图模型的“外挂式”扩展 Stable Diffusion 最初是一个文本到图像的扩散模型,