OpenClaw 迁移指南:如何把 AI 助手搬到新电脑

OpenClaw 迁移指南:如何把 AI 助手搬到新电脑

本文记录如何将 OpenClaw AI 助手(包括记忆、配置、本地模型)完整迁移到新电脑。

目录


概述

OpenClaw 是一个开源的 AI 助手框架,支持多渠道接入(钉钉、Telegram、Discord 等)。它的数据主要分为三部分:

内容说明位置
程序本体OpenClaw 运行时npm 全局包
配置文件API Key、渠道配置等~/.openclaw/config.yaml
工作空间记忆、脚本、文档~/.openclaw/workspace/

其中,工作空间可以用 Git 管理,实现跨设备同步和版本控制。


架构说明

~/.openclaw/ ├── config.yaml # 配置文件(API Key、渠道等) ├── workspace/ # 工作空间(Git 仓库) │ ├── AGENTS.md # AI 行为规范 │ ├── SOUL.md # AI 人格定义 │ ├── USER.md # 用户信息 │ ├── IDENTITY.md # AI 身份 │ ├── MEMORY.md # 长期记忆 │ ├── TOOLS.md # 工具配置笔记 │ ├── HEARTBEAT.md # 心跳任务 │ ├── memory/ # 每日记忆 │ │ ├── 2026-02-03.md │ │ └── 2026-02-04.md │ ├── scripts/ # 自定义脚本 │ │ ├── dingtalk-notify.sh │ │ ├── dingtalk-send.sh │ │ └── llama-server.sh │ └── docs/ # 文档 └── logs/ # 日志 

迁移步骤

1. 安装 OpenClaw

前置要求: Node.js 18+

# Ubuntu/Debian - 安装 Node.jscurl -fsSL https://deb.nodesource.com/setup_22.x |sudo -E bash - sudoaptinstall -y nodejs # 或使用 nvm(推荐)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh |bashsource ~/.bashrc nvm install22 nvm use 22# 安装 OpenClawnpminstall -g openclaw # 验证安装 openclaw --version 

2. 克隆记忆仓库

# 创建 OpenClaw 目录mkdir -p ~/.openclaw cd ~/.openclaw # 克隆工作空间(替换为你的仓库地址)git clone [email protected]:hongmaple/maple-bot-chat.git workspace # 如果是首次使用,需要配置 SSH 密钥 ssh-keygen -t ed25519 -C "[email protected]"cat ~/.ssh/id_ed25519.pub # 将公钥添加到 Gitee 账号

3. 恢复配置文件

配置文件包含敏感信息(API Key),建议手动复制或使用加密备份

方法 A:手动复制

从旧电脑复制 ~/.openclaw/config.yaml 到新电脑相同位置。

方法 B:从模板创建

# 初始化配置 openclaw init # 编辑配置文件nano ~/.openclaw/config.yaml 

配置文件示例:

# ~/.openclaw/config.yamlversion:"1"# AI 模型配置models:default: anthropic/claude-sonnet-4-20250514providers:anthropic:apiKey:"sk-ant-xxxxx"# 你的 API Key# 渠道配置(可选)channels:dingtalk:enabled:trueappKey:"your-app-key"appSecret:"your-app-secret"replyMode:"markdown"# 心跳配置heartbeat:enabled:trueintervalMinutes:30

4. 启动服务

# 启动 OpenClaw Gateway openclaw gateway start # 查看状态 openclaw gateway status # 查看日志 openclaw gateway logs 

可选:本地模型迁移

如果你使用 llama.cpp 运行本地模型,也需要迁移。

安装 llama.cpp

# 安装依赖sudoaptinstall -y build-essential cmake # 克隆并编译cd ~ git clone https://github.com/ggml-org/llama.cpp.git cd llama.cpp mkdir -p build &&cd build cmake .. cmake --build . --config Release -j$(nproc)

下载模型

cd ~/llama.cpp/models # 使用国内镜像下载(推荐)wget https://hf-mirror.com/Qwen/Qwen2.5-3B-Instruct-GGUF/resolve/main/qwen2.5-3b-instruct-q4_k_m.gguf # 或者从旧电脑复制模型文件(约 2GB)# scp old-pc:~/llama.cpp/models/*.gguf .

使用启动脚本

工作空间中包含了 llama-server 启动脚本:

# 创建软链接ln -sf ~/.openclaw/workspace/scripts/llama-server.sh ~/llama-server # 启动服务 ~/llama-server start # 查看状态 ~/llama-server status # 测试 API ~/llama-server test

API 地址:http://127.0.0.1:11434/v1/chat/completions


可选:钉钉机器人配置

企业内部应用(双向通信)

  1. 登录 钉钉开放平台
  2. 创建企业内部应用 → 机器人
  3. 获取 AppKey 和 AppSecret
  4. 配置消息接收地址:https://your-domain/webhook/dingtalk
  5. config.yaml 中配置

Webhook 机器人(仅推送)

  1. 在钉钉群 → 群设置 → 智能群助手 → 添加机器人
  2. 选择"自定义 Webhook"
  3. 记录 Webhook URL 和加签密钥
  4. 使用 scripts/dingtalk-notify.sh 发送消息
# 使用示例 ~/.openclaw/workspace/scripts/dingtalk-notify.sh "这是一条测试消息"

迁移清单

使用此清单确保迁移完整:

  • 新电脑安装 Node.js 18+
  • 安装 OpenClaw:npm install -g openclaw
  • 克隆工作空间:git clone ... ~/.openclaw/workspace
  • 复制/创建配置文件:~/.openclaw/config.yaml
  • 配置 SSH 密钥(用于 Git 同步)
  • 启动服务:openclaw gateway start
  • (可选)安装 llama.cpp 和模型
  • (可选)配置钉钉机器人
  • 测试 AI 对话是否正常

常见问题

Q: 迁移后 AI 还记得之前的事吗?

A: 是的!记忆存储在 workspace/memory/MEMORY.md 中,通过 Git 同步后会完整保留。

Q: API Key 需要重新申请吗?

A: 不需要,直接复制旧的 config.yaml 即可。但建议定期轮换 Key 以保证安全。

Q: 本地模型文件很大,如何快速迁移?

A: 几个选项:

  1. 局域网直接复制(最快)
  2. 移动硬盘
  3. 重新下载(使用 hf-mirror.com 国内镜像)

Q: 如何在多台电脑同时使用?

A: 可以,但注意:

  1. 只能有一台电脑运行 OpenClaw Gateway(避免消息重复)
  2. 工作空间通过 Git 同步,注意解决冲突
  3. 或者使用云服务器部署,多设备访问

Q: Windows 可以用吗?

A: 推荐使用 WSL2(Windows Subsystem for Linux),体验与原生 Linux 一致。


相关链接

Read more

从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南

从春晚机器人到零样本革命:YOLO26-Pose姿态估计实战指南

春晚舞台上,机器人群体的整齐划一令人惊叹——但如果想让机器人真正理解并模仿人类的复杂动作,我们需要怎样的视觉技术? 当16台机器人在春晚舞台上旋转跳跃时,它们的每一个动作都经过工程师数月精心编排。然而,真正智能的机器人不应只会重复预设动作,而应能观察人类、理解姿态、即时模仿。这正是姿态估计技术试图解决的难题——让机器人拥有"看懂"人类动作的视觉智能。 本文将带你深入探索基于YOLO26-Pose的零样本姿态估计技术,揭秘如何让机器人在无需特定场景训练数据的情况下,实时理解并复现人类动作。 一、姿态估计技术解析:从看懂到理解 姿态估计作为计算机视觉的核心技术,通过检测图像或视频中人体/物体的关键点并构建骨架模型,实现对姿态和运动的量化分析。在机器人领域,这项技术正在开启全新应用场景: * 模仿学习:机器人通过观察人类操作,学习抓取物体、使用工具 * 人机协作:实时理解工人意图,实现安全高效的人机协同作业 * 远程操控:将操作者动作精确映射到远端机器人,完成危险环境作业 * 技能传授:专家动作数字化,批量复制到多台机器人 然而,传统姿态估计方案面临一个根本性挑战:每个

FPGA硬件加速:解决AI推理实时性难题的工程实践

FPGA硬件加速:解决AI推理实时性难题的工程实践 【免费下载链接】CNN-FPGA使用Verilog实现的CNN模块,可以方便的在FPGA项目中使用 项目地址: https://gitcode.com/gh_mirrors/cn/CNN-FPGA 当AI推理遭遇现实瓶颈 您是否遇到过这样的困境:在工业质检线上,传统的CPU方案处理一帧图像需要数百毫秒,导致生产线速度受限?或者在自动驾驶场景中,GPU的高功耗让边缘设备续航大打折扣?这正是当前AI推理部署面临的核心挑战。 在实时性要求极高的应用场景中,软件方案往往力不从心。传统处理器受限于串行架构,难以充分发挥CNN的并行计算潜力。而GPU虽然性能强大,但在功耗敏感的边缘场景中显得过于"奢侈"。 突破性解决方案:全并行硬件架构 组合逻辑计算引擎 本项目采用的全并行架构彻底颠覆了传统处理模式。通过Verilog实现的组合逻辑模块,所有卷积核同时进行计算,无需等待时钟周期,实现了真正的零延迟推理。 核心技术突破: * 即时响应机制:输入数据立即可得计算结果,消除流水线延迟 * 资源最优配置:根据应用需求精准分配FP

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案 前言:为什么选择 LazyLLM 构建多 Agent 大模型应用? LazyLLM 作为低代码构建多 Agent 大模型应用的开发工具,可大幅降低大模型应用的开发与部署门槛。本文聚焦其在豆包模型的落地实践,将从源码部署豆包文本模型的完整配置步骤入手,延伸至官方 WebModule 启动可视化 Web 界面的实操流程,并配套精准性、简洁度等多维度的部署测试说明,为开发者提供可直接对照的实操指南,助力高效完成豆包模型在 LazyLLM 框架下的部署与验证。 LazyLLM 整体架构解析:三层联动的多 Agent 运行体系 LazyLLM 的架构分为三层级递进结构,各层级分工明确且联动协同,实现从应用开发到落地执行的全流程覆盖:上层(LazyPlatform AI 大模型应用开发平台):核心含应用编排平台以可视化编排、发布、回流、调优的闭环完成应用构建迭代与平台管理模块通过租户、权限管理支撑多用户运维,是开发者的高效开发管理入口中层(

clawdbot (openclaw) + discord 机器人部署指南学习教程

clawdbot (openclaw) + discord 机器人部署指南学习教程

本文介绍了基于 ClawdBot(OpenClaw)框架在 Discord 平台部署 AI 对话机器人的完整流程。内容包括:Discord Application 与 Bot 的创建配置、OAuth2 权限管理、pnpm 全局安装、Daemon 服务配置、多模型 API 接入(支持智谱 GLM 等主流大模型)、Gateway 服务启动与调试等核心环节。 一、网络要求 * 魔法 * 确保网络能够访问Discord服务 * TUN模式(关键哦) 二、Discord平台配置 2.1 访问Discord开发者平台 访问地址:https://discord.com/developers/applications 2.2 创建应用程序 1. 登录Discord开发者平台