手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

AppOS:始于 Mac,却远不止于 Mac。跟随 AppOS一起探索更广阔的 AI 数字生活。

OpenClaw

OpenClaw 是 Moltbot/Clawdbot 的最新正式名称。经过版本迭代与改名后,2026年统一以「OpenClaw」作为官方名称,核心定位是通过自然语言指令,替代人工完成流程化、重复性工作,无需用户掌握编程技能,适配多场景自动化需求。

该项目经历了多次更名,Clawdbot → Moltbot → OpenClaw(当前名称)

# OpenClaw 是什么?

OpenClaw 是一个开源的个人 AI 助手平台

简单来说,它是一个可以将你自己的 AI 助手接入你已经在用的即时通讯工具(Telegram、WhatsApp、飞书等)的系统。你可以自己挑选 AI 模型进行连接,添加各种工具和技能(如飞书等),构建专属工作流。说白了如果应用的够好,它就是一个能帮你干活的“员工”。

△ OpenClaw 采用模块化设计,其核心架构如图所示

注意:OpenClaw 需要访问不少本地权限和文件。建议找一台没有数据的 Mac 来试水,避免自己的隐私数据泄露。

# 准备工作

在开始之前,请确认你的 Mac 满足以下条件:

macOS Sonoma 或更新版本(推荐使用 Apple Silicon M1及以上芯片,性能会更好)。

流畅的网络环境,必要时可能会需要梯子(部分依赖库需要从 GitHub 下载)。

一颗爱折腾的心,其实很简单,跟着做就行了!不用担心自己是小白,本文会手把手教你成功部署 OpenClaw ,同时还会教你和飞书互联。

官方网站:https://openclaw.ai/

# 官网版本区别

对于新手小白来说,看到官网给出的四个安装方式到底有什么区别?

One-liner:一键脚本安装,最简单、官方推荐(这也是放在第一页的原因)。它会自动检测系统并安装依赖。适合个人用户,想快速在 Mac/Linux 上体验完整功能。缺点是如果你对系统环境有洁癖,脚本方式侵入性太强,不方便后期更新维护。

npm:全局安装方式,需要依赖Node.js 包管理器安装,适合前端开发者或已熟悉 Node.js 的用户(有一定计算机门槛),通过它安装,你知道自己在装什么,依赖了什么,不会弄乱你的开发环境。版本控制方便,更新更容易,本文选用此安装方式。

Hackable:源码安装方式,可任意魔改,下载源代码到本地。适合想要修改核心逻辑、自己写复杂插件、或者给项目提 PR 的人(小白请直接忽略)

macOS:GUI 界面应用,这是一个 Mac 端应用,提供了一个菜单栏图标,原生体验并提供语音交互、快捷指令等原生 Mac 功能。但是它通常是为了配合 CLI(命令行版)使用的,而不是完全替代命令行,想用此应用还是需要先安装前三中任意一个。

经过上面的解释你应该很清楚各个安装方式的区别了,只是想玩玩 OpenClaw 并且懒得装 Node 环境,玩完重装系统也无所谓,那就一键部署选One-liner。如果想把它当主力工具,长期稳定使用,出了问题好修、版本好管、系统干净,那就选 npm 安装。

# 环境配置(npm安装)

OpenClaw 依赖于 Node.js 环境。如果你不懂这是什么,没关系,照着输命令即可。

官方下载地址:

https://nodejs.org/zh-cn/download

1. 复制官网链接到浏览器打开,然后点击macOS 安装程序(.pkg)下载安装包如果你更熟悉用Homebrew下载,那会更方便,官网下载可避免一些未知错误;

2. 然后打开下载后的安装包,按照安装包的直接正常安装即可;

3. 安装完成,点击「关闭」即可;

4. 打开「终端」;

5. 在终端内输入:

sudo npm i -g openclaw 

然后回车,输入开机密码后再回车;

6. 如果出现如图错误,修改 Git 下载协议 (强制使用 HTTPS),复制下方代码到终端,回车执行即可解决;

    git config --global url."https://github.com/".insteadOf ssh://[email protected]/

    7. 重新输入 

    sudo npm i -g openclaw 

    出现如图界面表示安装成功;

    8. 启动 OpenClaw 的初始化向导,输入下方代码,然后回车; 

    openclaw onboard 

    9. 这一步主要是提醒你,使用 OpenClaw 可能会有一些风险。请问你是否继续?按向左方向键 ←,选择 Yes,按 Enter 回车确认;

    10. 选择选择 QiuickStart(快速开始模式),回车;

    11. 这里是配置 AI 模型 API Key,OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费 token,国外模型成本较高,新版本已经支持KIMI K2.5 ,小编以KIMI为例;

    注:其他任意模型均可,也可以用 Ollama 本地运行的 DeepSeek 的蒸馏版,即可免费使用 AI 模型,点击下图查看本地化部署 DeepSeek 教程;

    12.如果没有 KIMI 的API Key,打开下方官方地址注册账号获取API key,KIMI 认证后的账号可以获得15元的免费代金券;

    https://platform.moonshot.cn/console/api-keys

    13.然后复制你的API key,请保存好自己的 API;

    14. 选择Kimi API key (.cn),回车;

    15. 然后输入你的API Key,回车;

    16. 选择保持当前(moonshot/kimi-k2.5),回车;

    17. 接着你会看到选择聊天选择工具的选项。这里你建议先「暂时跳过」,先在终端(Terminal)里把 OpenClaw 跑起来,确认它的 AI 大脑、文件读写权限都正常工作,后面再单独部署;

    18. 这里选择「Yes」,也可以暂不配置选择「No」,后面通过UI界面再进行配置;

    19. 选择「npm」;

    20. 关于技能,你可以先跳过选择此步骤,或者使用空格键您需要的技能,可多选;

    21. 这里可以配置备用 API,如果不想配置就都选「No」即可;

    22. 正在完成最后的启动服务配置,大约30秒左右;

    23. 配置完成,选择「Open the web UI」,打开可视化页面;

    24. 安装完成,浏览器自动打开 Web UI 界面;

    # 把 OpenClaw 接入飞书机器人

    1. 首先进入飞书开放平台。登录成功后,点击创建企业自建应用;

    2. 接着填写应用名称(如 “AppOS-OpenClaw助手”)、应用描述,选择应用图标,点击「创建应用」按钮,进入应用管理页面;

    3. 在添加应用能力中选择「机器人」→ 点击「添加」;

    4. 在开发配置中点击「权限管理」→「开通权限」;

    5. 在搜索框内搜索「im:」勾选全部相关权限名称,最后点击「确认开通权限」;

    6. 点击左侧「云文档」勾选全部相关权限名称,最后点击「确认开通权限」;

    7. 点击顶部「创建版本」按钮;

    8. 简单填写相关内容,然后点击「保存」;

    9. 点击「确认发布」;

    10. 机器人发布完成,开始配置OpenClaw

    11. 为了防止与自带的飞书文件夹冲突,我们直接把之前的先全部删掉,方便后面顺利安装,输入下方代码到终端内,然后回车,输入开机密码执行;

      sudo rm -rf ~/.openclaw/extensions/feishu

      12. 清理完成后,接着下载飞书插件,在终端输入下方代码,然后回车,输入开机密码执行;

        openclaw plugins install @m1heng-clawd/feishu

        13. 正在下载飞书插件,耐心等待即可;

        14. 出现下面界面表示飞书插件安装成功;

        15. 在输入下方输入代码,然后回车,输入开机密码执行;

          openclaw config

          16. 选择「Local (this machine)」,然后回车;

          17. 选择「Channels(渠道)」,然后回车;

          18. 选择「Configure/link(配置链接)」,然后回车;

          19. 选择「Feishu/Lark(飞书)」,然后回车;

          20. 打开飞书开放平台,在「应用凭证」里,复制 AppID 和 AppSecrect;

          21. 在终端对应位置分别输入飞书的 AppID 和 AppSecrect;

          22. 选择「Feishu(feishu.cn)- China 」,然后回车;

          23. 选择「Open - respond in all groups(requires mention)」,然后回车;

          24. 选择「Finished」然后回车;

          25. 选择「Yes」,回车;

          26. 选择「Open...」,回车;

          27. 选择「Continue」,回车;

          28. 配置完成,关闭终端;

          29. 重新打开终端,然后输入下方代码,重启配置;

            openclaw gateway

            30. 打开飞书开放平台,选择「事件与回调」→「订阅方式」→「使用长连接接收事件」→「保存」;

            31. 然后点击同一页面内的「添加事件」;

            32. 在弹出的列表中,搜索并添加 「接收消息」、「消息已读」、「机器人进群」、「机器人被移出群」,最后点击 「确认添加」;

            33. 添加完成后如下图所示;

            34. 点击「权限管理」→搜索「通讯录」→选中「获取通讯录基本信息」→「确认开通权限」;

            35. 配置完成后我们需要重新发布新版本,点击顶部「创建版本」;

            36. 按如图所示输入;

            37. 点击「确认发布」;

            38. 打开手机端「飞书」,搜索机器人的名字,给机器人发消息,如果机器人以AI的方式进行回复,那么恭喜你配置成功(太不容易了)。

            # OpenClaw常用命令

              openclaw onboard #重新进入配置向导openclaw status #查看运行状态openclaw health #健康检查openclaw gateway start #启动服务openclaw gateway stop #停止服务openclaw update #更新到最新版本openclaw doctor #诊断问题

              openclaw uninstall #卸载 OpenClaw

              # OpenClaw 技能库

              最后再推荐两个 OpenClaw 技能库,它就是给你的 AI 装上一堆「技能插件」,让它从“动嘴皮子”变成“真能干活”。

              1. 宝藏仓库地址 GitHub 地址:

              https://github.com/VoltAgent/awesome-openclaw-skills

              里面包含内容众多,可根据自身需求进行安装;

              2. ClawHub,精英特工的技能平台。

              官方网站:https://clawhub.ai/

              # 写到最后,我想说点什么

              其实 OpenClaw 刚发布时,就有朋友催我出教程。但我当时犹豫了很久,甚至想劝退大家。

              为什么?

              因为它太「初级」了,OpenClaw 代码是由 AI 生成的,这也导致了它存在很多 Bug,安全性也没有得到验证,而且运行起来非常消耗 Token。

              对大多数人来说,它现阶段更像是一个昂贵的玩具,而非能完全承载日常工作的自动化神器。

              但今天我为什么还是决定写这篇教程?

              因为我意识到,不完美,不代表没有价值。

              OpenClaw 代表了未来 AI 操控电脑的雏形,是通往全智能 AI 的必经之路。我也许无法向你推荐一个完美的成品,但我希望能带你体验一种全新的人机交互方式。

              在这个 AI 更新快到令人眩晕的时代,对于我们普通人不必成为造车的工程师,但一定要做最早学会驾驶的司机。

              希望我们持续保持好奇,紧跟这个时代,

              和 AI 一起,

              无限进步!

              # 参考文章

              https://docs.openclaw.ai/zh-CN

              https://cloud.tencent.com.cn/developer/article/2626160

              https://cloud.tencent.com/developer/article/2626151

              https://developer.aliyun.com/article/1709772

              https://cloud.tencent.com/developer/article/2624973

              Read more

              专科生必看!10个高效降AIGC工具推荐

              专科生必看!10个高效降AIGC工具推荐

              专科生必看!10个高效降AIGC工具推荐 AI降重工具:让论文更自然,让学术更自信 在当今学术写作中,AI生成内容的普及让许多学生面临一个共同的问题——如何降低AIGC率,同时保持文章的逻辑性和语义通顺。对于专科生而言,这不仅是对学术能力的考验,更是对写作技巧和工具使用的挑战。幸运的是,随着技术的发展,越来越多的AI降重工具应运而生,它们不仅能有效去除AI痕迹,还能帮助用户提升论文的整体质量。 这些工具的核心优势在于,它们能够智能识别AI生成内容中的重复模式,并通过同义替换、句式调整等方式进行优化,从而实现降重而不失原意。无论是初稿的快速处理,还是定稿前的细致修改,AI降重工具都能提供精准的解决方案。更重要的是,它们操作简单、效果显著,为学生节省了大量时间,也让论文写作变得更加高效。 工具名称主要功能适用场景千笔强力去除AI痕迹、保语义降重AI率过高急需降重云笔AI多模式降重初稿快速处理锐智 AI综合查重与降重定稿前自查文途AI操作简单片段修改降重鸟同义词替换小幅度修改笔杆在线写作辅助辅助润色维普官方查重最终检测万方数据库查重数据对比Turnitin国际通用检测留学生降重

              如何快速掌握faster-whisper:语音识别性能优化的完整指南

              如何快速掌握faster-whisper:语音识别性能优化的完整指南 【免费下载链接】faster-whisper 项目地址: https://gitcode.com/gh_mirrors/fas/faster-whisper 还在为语音转录速度慢、内存占用高而苦恼吗?faster-whisper正是你需要的解决方案!这个基于CTranslate2优化的语音识别引擎,在保持高准确率的同时,将处理速度提升至传统方法的4倍以上。无论你是处理会议录音、播客内容还是视频字幕,faster-whisper都能带来前所未有的效率体验。 核心优势解析:为什么选择faster-whisper 极速处理能力 🚀:相比原生Whisper模型,faster-whisper在GPU环境下能够实现4倍以上的速度提升,让长时间的音频转录变得轻松快捷。 内存优化显著 💾:通过智能的内存管理技术和量化压缩,大幅降低系统资源消耗,即使在普通硬件上也能流畅运行。 安装配置简单 🔧:无需复杂的依赖配置,一键安装即可开始使用,大大降低了技术门槛。 快速入门:从零开始的安装配置 环境准备与安装 fa

              gh_mirrors/jm/jmx_exporter与OpenTelemetry集成:现代化可观测性最佳实践

              gh_mirrors/jm/jmx_exporter与OpenTelemetry集成:现代化可观测性最佳实践 【免费下载链接】jmx_exporterA process for exposing JMX Beans via HTTP for Prometheus consumption 项目地址: https://gitcode.com/gh_mirrors/jm/jmx_exporter jmx_exporter是一款轻量级工具,专为将JVM应用的JMX指标通过HTTP暴露给Prometheus而设计。随着可观测性技术的发展,jmx_exporter已支持与OpenTelemetry集成,为Java应用提供更全面的指标收集与分析能力。本文将详细介绍如何实现这一集成,帮助你构建现代化的可观测性体系。 为什么选择jmx_exporter与OpenTelemetry集成? 在云原生环境中,单一的监控工具往往难以满足复杂的可观测性需求。jmx_exporter与OpenTelemetry的组合提供了以下核心优势: * 统一指标出口:通过OpenTelemetry的标准化协议,将

              DAMODEL平台|Llama 3.1 开源模型快速部署:从零到上线

              DAMODEL平台|Llama 3.1 开源模型快速部署:从零到上线

              文章目录 * 一、Llama 3.1 系列的演进与发展历程 * 二、大型语言模型的力量:Llama 3.1 405B * 三、Llama 3.1 405B 部署教程 * 四、Llama 3.1在客户服务中的运用 一、Llama 3.1 系列的演进与发展历程 自开源LLM(大语言模型)兴起以来,Meta公司凭借其Llama系列逐步在全球AI领域占据重要地位。2024年7月23日,Meta发布了Llama 3.1系列,标志着该系列在技术上的一次重要飞跃。 Llama 3.1的发布不仅在算法优化和性能提升方面做出了突破,还在数据处理和模型架构上进行了革新。随着版本的不断迭代,Llama系列逐步从最初的研究原型发展为一个功能强大、易于扩展的工具,深刻影响了开源AI生态的进步。 本篇文章将详细回顾Llama 3.1系列的演进历程,探讨其在开源领域的重要贡献以及未来发展的潜力。 这一成就的背后,是超过15万亿的Tokens和超过1.