OpenClaw 项目概述
OpenClaw 是一款近期在开源社区引发关注的具身智能项目,它赋予机器人'空间智能体记忆'能力。该项目让机器人首次具备了理解物理空间和时间规律的能力,相关源代码已在 GitHub 公开。

视频中展示了搭载 OpenClaw 系统的宇树人形机器人在室内环境中的表现。机器人通过激光雷达、双目视觉及 RGB 相机等传感器采集海量数据,并输入至核心处理单元。系统使机器人能够区分房间、人员及物体位置,并能记录特定时间点发生的事件。
项目负责人 Peter Steinberger 确认了该技术的里程碑意义:OpenClaw 正式实现了感知物理空间和把握时间规律的突破。该系统不依赖 ROS,支持自主避障与 SLAM(同步定位与建图),兼容多种硬件设备,包括激光雷达、立体相机或普通摄像头。
开源机器人技术的伦理讨论
项目上线后引发了社区广泛讨论。支持者认为这是边缘 AI 领域的史诗级跨越,是具身智能的突破口。部分观点则关注隐私与伦理风险,例如机器人若具备全知视角的监视能力,需有相应的伦理规范约束。

尽管视频演示基于宇树机器人,但 OpenClaw 具有广泛的硬件兼容性。理论上,任何能运行该系统的硬件,如无人机、机器狗甚至旧款手机,均可获得时空感知能力。
传统机器人的局限性
相比以往技术,OpenClaw 解决了以下痛点:
- 静态知识局限:大模型通常只有死记硬背的静态知识,无法知晓用户实时的物品位置。
- 缺乏空间感:传统系统在现实环境中难以理解'厨房在客厅左边'等空间关系。
- 数据处理瓶颈:面对视频和深度数据流,旧技术难以处理现实世界的复杂数据洪流。


SpatialRAG 技术与 3D 世界模型
OpenClaw 的核心在于其独特的架构设计,被称为 SpatialRAG(空间检索增强生成)。
体素化世界构建
系统将视频、雷达、图像和运动数据融合,构建了一个体素化的世界模型。简单来说,将空间切割为无数小方块,每个方块均标注标签和坐标。这使得机器人的大脑成为一个包含物体、房间、形状、时间、画面和点云的多维仓库。








