嫌 OpenClaw 太重?ZeroClaw 重磅开源!

大家好,我是玄姐。

摘要:当 OpenClaw 的 Node.js 内存占用让你抓狂,当 Agent 的响应速度无法满足实时需求,是时候看看 Rust 带来的新选择了。ZeroClaw,一个 100% Rust 编写、极致轻量、高度模块化的 AI Agent 框架,正式开源。

过去的一个月里,OpenClaw(及其前身 Moltbot/Clawdbot)以其强大的生态和易用性,几乎成为了开源 AI Agent 的代名词。然而,随着大家在生产环境中通过 Node.js 运行越来越复杂的 Agent 工作流,一些问题也逐渐浮出水面:

资源消耗大:Node.js 运行时的内存占用在多 Agent 场景下显得捉襟见肘。

部署臃肿:Docker 镜像动辄几百 MB,对于边缘设备极其不友好。

性能瓶颈:在处理高并发消息或复杂逻辑时,解释型语言的延迟感依然存在。

今天,我们向 OpenClaw 说“再见”,并不是因为它不好,而是因为更强、更快、更轻的继任者出现了。

隆重介绍 ZeroClaw,并不是 OpenClaw 的简单复刻,而是用 Rust 重新思考了“什么是高效 Agent”后的答案。

一、什么是 ZeroClaw?

ZeroClaw 是由开发者 theonlyhennygod 开源的一款 AI 自动化工具。与市面上大多数基于 Python 或 TypeScript 的 Agent 框架不同,ZeroClaw 从第一行代码开始就是 100% Rust 编写的。

它的设计哲学非常直接:极致的性能、极低的资源占用、以及无缝的模块化替换。

如果你受够了在树莓派或云服务器上跑 Node.js 时的卡顿,ZeroClaw 可能会让你感觉换了一台新电脑。

二、核心特性:为什么要迁移到 ZeroClaw?

1. 100% Rust 带来的极致性能

ZeroClaw 充分利用了 Rust 的内存安全和零成本抽象特性。这意味着:

极小的二进制体积:编译后的产物极小,无需携带沉重的运行时环境。

秒级启动:没有 Node_modules 的黑洞,启动即运行。

高并发处理:Rust 的异步运行时让它能轻松处理来自 Telegram、Discord 等多个渠道的大量并发消息。

2. Trait-Based 的插件化架构

这是 ZeroClaw 最“极客”的地方。它采用了基于 Trait(特征)的子系统设计。

想换个 LLM 后端?改个配置就行。

想增加一个新的消息渠道?实现对应的 Trait 即可。

零代码修改:在绝大多数场景下,你只需要修改配置文件,而不需要动核心代码。这种高度解耦的设计,让它非常适合根据业务需求进行定制。

3. 全面的平台支持

ZeroClaw 原生支持多种交互界面,覆盖了从极客到普通用户的全部场景:

CLI (命令行):开发调试的神器。

Telegram & Discord:社区运营和个人助理的首选。

Slack:不仅是聊天,更是生产力工具。

iMessage:直接接管你的苹果生态消息。

4. 真正的小得“离谱”

“Small software footprint” 是 ZeroClaw 的核心卖点。它不仅意味着省钱(可以用更便宜的 VPS),更意味着它可以在各种边缘计算设备、老旧硬件上流畅运行,保留了极高的敏捷性。

三、技术速览:它是如何工作的?

ZeroClaw 是一款基于 Rust 语言重构的高性能 AI Agent 框架,其底层依托 Tokio 异步运行时 实现高并发消息处理与毫秒级响应,架构上采用 Trait 驱动的“轮辐式”(Hub & Spoke)设计,通过零成本抽象(Zero-Cost Abstractions)实现了 LLM 后端、工具集与多消息渠道(Telegram/Discord/CLI)的完全解耦与热插拔;同时利用 Rust 的 RAII(资源获取即初始化)内存管理机制 彻底消除了 GC 卡顿与内存泄漏风险,在极低硬件资源占用下实现了生产级的稳定性与安全性。

ZeroClaw 的架构设计非常清晰,它通过 Rust 的强类型系统保证了组件之间的契约稳定。ZeroClaw 的架构不仅是为了“快”,更是为了“稳”。它展示了当 System Programming(系统级编程)语言进入 AI Agent 领域时,能够带来怎样的工程美学:用最少的资源,做最可靠的交付。

// 伪代码示例:感受 Rust 带来的类型安全与清晰结构// ZeroClaw 的设计理念允许你像搭积木一样组装 Agent trait AgentPlatform {    async fn listen(&self) -> Result<Message, Error>;    async fn reply(&self, response: String) -> Result<(), Error>;} // 极其轻量的实现,没有 V8 引擎的开销struct TelegramBot {    token: String,    // ...} impl AgentPlatform for TelegramBot {    // 高效的异步实现}

(注:以上为架构示意,具体实现请参考源码)

四、快速开始

想要体验 Rust 的速度吗?ZeroClaw 的部署非常简单。

1. 克隆仓库

git clone https://github.com/theonlyhennygod/zeroclaw.gitcd zeroclaw

2. 编译运行

你需要安装 Rust 环境(如果你还没装,现在是最好的入坑时机):

cargo run --release

3. 配置

修改项目根目录下的配置文件,填入你的 API Key 和 Bot Token,你就可以拥有一个比 OpenClaw 更快、更稳的 AI 助理。

五、写在最后

OpenClaw 完成了它的历史使命,它让成千上万的开发者意识到了“个人 AI 助理”的可能性。而 ZeroClaw 则代表了 Agent 进化的下一个阶段:工程化、高性能与资源集约。

在这个 AI 算力成本昂贵的时代,用更少的资源做更多的事,本身就是一种极致的优雅。

如果你是 Rust 爱好者,或者正在寻找一个生产级的 AI Agent 框架,ZeroClaw 绝对值得你 Star 星标一下。

Github 项目地址:

https://github.com/theonlyhennygod/zeroclaw

好了,这就是我今天想分享的内容。如果你对构建企业级 AI 原生应用新架构设计和落地实践感兴趣,别忘了点赞、关注噢~

—1—

加我微信

扫码加我👇有很多不方便公开发公众号的我会直接分享在朋友圈,欢迎你扫码加我个人微信来看👇

图片

加星标★,不错过每一次更新!

⬇戳”阅读原文“,立即预约

Read more

「源力觉醒 创作者计划」文心大模型开源:打破封闭桎梏,开启开放生态新篇章

「源力觉醒 创作者计划」文心大模型开源:打破封闭桎梏,开启开放生态新篇章

引言 文心大模型 ERNIE 4.5 于 6 月 30 日正式开源,在 GitCode 平台首发!这一消息无疑是 2025 年上半年 AI 科技圈的一件大事。很多人不禁疑惑:文心一言作为国内顶尖大模型,也是国内首家推出大模型的企业,为何选择开源?这样做能带来什么影响?别急,下面就让我们一同解读文心大模型 ERNIE 4.5 本次的开源举措。 文章目录 * 引言 * 一、文心一言为什么要开源? * 1.1 激烈的市场竞争 * 1.2 技术迭代与成本下降 * 1.3 推动AI技术发展 * 二、AI浪潮下的文心新征程 * 2.1 文心大模型发展历程 * 2.2 文心一言开源的战略意义

By Ne0inhk
深度评测 GLM-5:AtomGit 首发模型的代码生成实战体验

深度评测 GLM-5:AtomGit 首发模型的代码生成实战体验

文章目录 * 🔍 深度评测 GLM-5:AtomGit 首发模型的代码生成实战体验 * 📋 前言 * 🏗️ 一、模型参数配置 * ⚡ 二、核心能力实测:Flask API 完整服务生成 * 2.1 测试任务 * 2.2 模型输出分析 * 2.3 项目结构输出 * 2.4 核心代码质量评测 * 配置文件 (config.py) * 用户模型 (models/user.py) * 错误处理 (utils/errors.py) * 数据验证 (utils/validators.py) * 📊 三、性能表现评估 * 💡 四、使用技巧与建议 * 4.1 提示词优化技巧 * 4.2 参数调优建议

By Ne0inhk
GitCode Notebook 昇腾 910B NPU 平台 ops-transformer 算子:全场景性能测试与验证及与原生 PyTorch 注意力的深度性能对比

GitCode Notebook 昇腾 910B NPU 平台 ops-transformer 算子:全场景性能测试与验证及与原生 PyTorch 注意力的深度性能对比

GitCode Notebook 昇腾 910B NPU 平台 ops-transformer 算子:全场景性能测试与验证及与原生 PyTorch 注意力的深度性能对比 前言 基于 GitCode Notebook 昇腾 910B + CANN 8.2.rc1 环境,聚焦 ops-transformer 算子的完整部署与性能验证,通过清晰的环境配置、依赖安装、多场景性能测试及与原生 PyTorch 注意力的对比实验,直观呈现其在低时延、高吞吐量及显存优化上的核心优势,为 LLM 训练 / 推理等 NLP 任务提供高效、可落地的算子应用参考 前提条件 开发环境准备:GitCode Notebook NPU 启动配置 1、GitCode启动NoteBook资源 计算类型:NPUCANN是昇腾 NPU设计的异构计算架构,

By Ne0inhk

ALVR终极配置指南:3步解决VR串流卡顿问题

ALVR终极配置指南:3步解决VR串流卡顿问题 【免费下载链接】ALVRALVR is an open source remote VR display for Gear VR and Oculus Go. With it, you can play SteamVR games in your standalone headset. 项目地址: https://gitcode.com/gh_mirrors/alv/ALVR ALVR作为开源VR远程显示解决方案,能够将PC端的SteamVR游戏流畅传输到Gear VR、Oculus Go/Quest等独立头显设备。本指南将带你从基础安装到高级优化,彻底解决VR串流中的卡顿和延迟问题。 入门指南:从零开始搭建ALVR环境 硬件要求检查清单 在开始配置之前,请确保你的设备满足以下基本要求: 设备类型最低配置推荐配置PC显卡NVIDIA

By Ne0inhk