ZeroClaw:基于 Rust 的轻量级 AI Agent 框架,内存占用仅 5MB
ZeroClaw 是一个基于 Rust 开发的轻量级 AI Agent 框架,旨在解决传统方案内存占用过高的问题。其核心优势包括零 GC 停顿、极小二进制体积、运行时内存占用约 5MB,以及默认的安全沙箱机制。文章介绍了其模块化架构、安装部署步骤、TOML 配置方法、本地模型对接方式以及自定义 Rust 工具的开发示例,适用于资源受限设备或追求高性能安全的 AI 应用场景。

ZeroClaw 是一个基于 Rust 开发的轻量级 AI Agent 框架,旨在解决传统方案内存占用过高的问题。其核心优势包括零 GC 停顿、极小二进制体积、运行时内存占用约 5MB,以及默认的安全沙箱机制。文章介绍了其模块化架构、安装部署步骤、TOML 配置方法、本地模型对接方式以及自定义 Rust 工具的开发示例,适用于资源受限设备或追求高性能安全的 AI 应用场景。

2025 年至 2026 年,AI Agent 迎来爆发,OpenClaw 等方案因全能特性受到关注。然而在生产环境中,传统方案往往存在资源消耗过大的问题。
例如在树莓派或低配云服务器上运行自动收发邮件、定时抓取数据的个人助理时,依赖环境下载耗时且启动瞬间可能触发 OOM-Killer 导致设备死机。AI Agent 的本质是智能调度中心,不应成为吞噬资源的怪兽。

GitHub 上的 ZeroClaw 项目提供了另一种思路。官方介绍显示其具备零开销、100% Rust 编写、在低成本硬件上运行且占用极低内存的特性。经过测试,该方案在架构理念上实现了显著优化。
与 OpenClaw 将所有功能塞入 JS 运行时的做法不同,ZeroClaw 采用了 Trait-driven(特征驱动)架构。
核心理念是一切皆可替换。提供商、渠道、工具、内存、隧道等均抽象为 Rust 的 Trait。系统无强耦合,支持像拼乐高一样定制 Agent。
核心事件驱动时序如下:
WASM/Native Tools -> LLM Provider (OpenAI/Local) -> Trait Router (Memory/LLM) -> Security Sandbox -> ZeroClaw Gateway (Rust) -> 开发者/终端用户
流程包括:发起 Agent 任务请求 -> 校验权限与工作区作用域 -> 分发至上下文管理器 -> 加载短期/长期 Memory -> 组装 Prompt 并调用大模型 -> 返回 Function Call / Text -> 丢入沙箱执行工具 -> 返回执行结果 -> 携带工具结果再次请求 -> 返回最终响应。
OpenClaw 依赖 Node.js 和 V8 引擎,存在庞大的垃圾回收机制和基础内存开销。ZeroClaw 采用 100% Pure Rust。
针对 Agent 权限过高可能导致系统崩溃或凭证泄露的风险,ZeroClaw 提供了默认安全机制。
默认处于最小权限状态。未授权无法读取当前目录文件。
将 Agent 活动范围限制在特定文件夹内。任何试图逃逸该文件夹的路径穿越攻击会被底层 Rust 安全机制拦截。
请认准官方正版仓库:zeroclaw-labs/zeroclaw。避免访问非官方域名以防恶意代码。
安装 Rust 环境:
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
source $HOME/.cargo/env
rustc --version
cargo --version
安装 ZeroClaw(Linux/macOS):
curl -fsSL https://zeroclawlabs.ai/install.sh | bash
# 验证版本
zeroclaw --version
# 输出示例:zeroclaw 0.2.1 (rustc 1.76.0)
Windows 用户可通过 PowerShell 运行 .ps1 脚本或在 Releases 页面下载 zeroclaw.exe。
初始化工作空间:
mkdir my-first-agent && cd my-first-agent
zeroclaw init
生成 zeroclaw.toml 配置文件:
[agent]
name = "MyTinyAssistant"
description = "一个仅占用 5MB 内存的私人助理"
[provider]
type = "openai"
api_key = "${YOUR_API_KEY}"
endpoint = "https://api.openai.com/v1"
model = "gpt-4o-mini"
[security]
workspace = "./data"
allow_network = ["api.github.com", "weather.com"]
allow_commands = ["echo", "ls"]
启动交互模式:
zeroclaw chat
此时进程内存占用约为 4.5MB。
结合 Ollama 可实现完全本地化、断网运行的隐私 AI。
修改 zeroclaw.toml:
[provider]
type = "ollama"
endpoint = "http://192.168.1.100:11434"
model = "qwen2.5:7b"
此架构实现边缘计算调度 + 中心算力推理。
通过 Rust Trait 接口及 WASM 支持扩展功能。以下为获取系统温度的自定义工具示例:
use zeroclaw_core::tool::{Tool, ToolResult, ToolContext};
use async_trait::async_trait;
use serde_json::json;
pub struct SystemTempTool;
#[async_trait]
impl Tool for SystemTempTool {
fn name(&self) -> &'static str { "get_system_temperature" }
fn description(&self) -> &'static str { "获取当前设备的 CPU 温度" }
async fn execute(
&self,
_args: serde_json::Value,
_ctx: &ToolContext,
) -> ToolResult {
let temp_raw = std::fs::read_to_string("/sys/class/thermal/thermal_zone0/temp")
.unwrap_or_else(|_| "50000".to_string());
let temp_celsius = temp_raw.trim().parse::<f64>().unwrap_or(0.0) / 1000.0;
Ok(json!({
"status": "success",
"temperature_celsius": temp_celsius,
"warning": if temp_celsius > { } { }
}))
}
}
ZeroClaw 解决了 AI Agent 走向落地的核心痛点:成本、性能与安全。相比传统方案,它能在低配设备上以极低内存占用运行具备自主能力的 AI 基础设施。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online