手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

AppOS:始于 Mac,却远不止于 Mac。跟随 AppOS一起探索更广阔的 AI 数字生活。

OpenClaw

OpenClaw 是 Moltbot/Clawdbot 的最新正式名称。经过版本迭代与改名后,2026年统一以「OpenClaw」作为官方名称,核心定位是通过自然语言指令,替代人工完成流程化、重复性工作,无需用户掌握编程技能,适配多场景自动化需求。

该项目经历了多次更名,Clawdbot → Moltbot → OpenClaw(当前名称)

# OpenClaw 是什么?

OpenClaw 是一个开源的个人 AI 助手平台

简单来说,它是一个可以将你自己的 AI 助手接入你已经在用的即时通讯工具(Telegram、WhatsApp、飞书等)的系统。你可以自己挑选 AI 模型进行连接,添加各种工具和技能(如飞书等),构建专属工作流。说白了如果应用的够好,它就是一个能帮你干活的“员工”。

△ OpenClaw 采用模块化设计,其核心架构如图所示

注意:OpenClaw 需要访问不少本地权限和文件。建议找一台没有数据的 Mac 来试水,避免自己的隐私数据泄露。

# 准备工作

在开始之前,请确认你的 Mac 满足以下条件:

macOS Sonoma 或更新版本(推荐使用 Apple Silicon M1及以上芯片,性能会更好)。

流畅的网络环境,必要时可能会需要梯子(部分依赖库需要从 GitHub 下载)。

一颗爱折腾的心,其实很简单,跟着做就行了!不用担心自己是小白,本文会手把手教你成功部署 OpenClaw ,同时还会教你和飞书互联。

官方网站:https://openclaw.ai/

# 官网版本区别

对于新手小白来说,看到官网给出的四个安装方式到底有什么区别?

One-liner:一键脚本安装,最简单、官方推荐(这也是放在第一页的原因)。它会自动检测系统并安装依赖。适合个人用户,想快速在 Mac/Linux 上体验完整功能。缺点是如果你对系统环境有洁癖,脚本方式侵入性太强,不方便后期更新维护。

npm:全局安装方式,需要依赖Node.js 包管理器安装,适合前端开发者或已熟悉 Node.js 的用户(有一定计算机门槛),通过它安装,你知道自己在装什么,依赖了什么,不会弄乱你的开发环境。版本控制方便,更新更容易,本文选用此安装方式。

Hackable:源码安装方式,可任意魔改,下载源代码到本地。适合想要修改核心逻辑、自己写复杂插件、或者给项目提 PR 的人(小白请直接忽略)

macOS:GUI 界面应用,这是一个 Mac 端应用,提供了一个菜单栏图标,原生体验并提供语音交互、快捷指令等原生 Mac 功能。但是它通常是为了配合 CLI(命令行版)使用的,而不是完全替代命令行,想用此应用还是需要先安装前三中任意一个。

经过上面的解释你应该很清楚各个安装方式的区别了,只是想玩玩 OpenClaw 并且懒得装 Node 环境,玩完重装系统也无所谓,那就一键部署选One-liner。如果想把它当主力工具,长期稳定使用,出了问题好修、版本好管、系统干净,那就选 npm 安装。

# 环境配置(npm安装)

OpenClaw 依赖于 Node.js 环境。如果你不懂这是什么,没关系,照着输命令即可。

官方下载地址:

https://nodejs.org/zh-cn/download

1. 复制官网链接到浏览器打开,然后点击macOS 安装程序(.pkg)下载安装包如果你更熟悉用Homebrew下载,那会更方便,官网下载可避免一些未知错误;

2. 然后打开下载后的安装包,按照安装包的直接正常安装即可;

3. 安装完成,点击「关闭」即可;

4. 打开「终端」;

5. 在终端内输入:

sudo npm i -g openclaw 

然后回车,输入开机密码后再回车;

6. 如果出现如图错误,修改 Git 下载协议 (强制使用 HTTPS),复制下方代码到终端,回车执行即可解决;

    git config --global url."https://github.com/".insteadOf ssh://[email protected]/

    7. 重新输入 

    sudo npm i -g openclaw 

    出现如图界面表示安装成功;

    8. 启动 OpenClaw 的初始化向导,输入下方代码,然后回车; 

    openclaw onboard 

    9. 这一步主要是提醒你,使用 OpenClaw 可能会有一些风险。请问你是否继续?按向左方向键 ←,选择 Yes,按 Enter 回车确认;

    10. 选择选择 QiuickStart(快速开始模式),回车;

    11. 这里是配置 AI 模型 API Key,OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费 token,国外模型成本较高,新版本已经支持KIMI K2.5 ,小编以KIMI为例;

    注:其他任意模型均可,也可以用 Ollama 本地运行的 DeepSeek 的蒸馏版,即可免费使用 AI 模型,点击下图查看本地化部署 DeepSeek 教程;

    12.如果没有 KIMI 的API Key,打开下方官方地址注册账号获取API key,KIMI 认证后的账号可以获得15元的免费代金券;

    https://platform.moonshot.cn/console/api-keys

    13.然后复制你的API key,请保存好自己的 API;

    14. 选择Kimi API key (.cn),回车;

    15. 然后输入你的API Key,回车;

    16. 选择保持当前(moonshot/kimi-k2.5),回车;

    17. 接着你会看到选择聊天选择工具的选项。这里你建议先「暂时跳过」,先在终端(Terminal)里把 OpenClaw 跑起来,确认它的 AI 大脑、文件读写权限都正常工作,后面再单独部署;

    18. 这里选择「Yes」,也可以暂不配置选择「No」,后面通过UI界面再进行配置;

    19. 选择「npm」;

    20. 关于技能,你可以先跳过选择此步骤,或者使用空格键您需要的技能,可多选;

    21. 这里可以配置备用 API,如果不想配置就都选「No」即可;

    22. 正在完成最后的启动服务配置,大约30秒左右;

    23. 配置完成,选择「Open the web UI」,打开可视化页面;

    24. 安装完成,浏览器自动打开 Web UI 界面;

    # 把 OpenClaw 接入飞书机器人

    1. 首先进入飞书开放平台。登录成功后,点击创建企业自建应用;

    2. 接着填写应用名称(如 “AppOS-OpenClaw助手”)、应用描述,选择应用图标,点击「创建应用」按钮,进入应用管理页面;

    3. 在添加应用能力中选择「机器人」→ 点击「添加」;

    4. 在开发配置中点击「权限管理」→「开通权限」;

    5. 在搜索框内搜索「im:」勾选全部相关权限名称,最后点击「确认开通权限」;

    6. 点击左侧「云文档」勾选全部相关权限名称,最后点击「确认开通权限」;

    7. 点击顶部「创建版本」按钮;

    8. 简单填写相关内容,然后点击「保存」;

    9. 点击「确认发布」;

    10. 机器人发布完成,开始配置OpenClaw

    11. 为了防止与自带的飞书文件夹冲突,我们直接把之前的先全部删掉,方便后面顺利安装,输入下方代码到终端内,然后回车,输入开机密码执行;

      sudo rm -rf ~/.openclaw/extensions/feishu

      12. 清理完成后,接着下载飞书插件,在终端输入下方代码,然后回车,输入开机密码执行;

        openclaw plugins install @m1heng-clawd/feishu

        13. 正在下载飞书插件,耐心等待即可;

        14. 出现下面界面表示飞书插件安装成功;

        15. 在输入下方输入代码,然后回车,输入开机密码执行;

          openclaw config

          16. 选择「Local (this machine)」,然后回车;

          17. 选择「Channels(渠道)」,然后回车;

          18. 选择「Configure/link(配置链接)」,然后回车;

          19. 选择「Feishu/Lark(飞书)」,然后回车;

          20. 打开飞书开放平台,在「应用凭证」里,复制 AppID 和 AppSecrect;

          21. 在终端对应位置分别输入飞书的 AppID 和 AppSecrect;

          22. 选择「Feishu(feishu.cn)- China 」,然后回车;

          23. 选择「Open - respond in all groups(requires mention)」,然后回车;

          24. 选择「Finished」然后回车;

          25. 选择「Yes」,回车;

          26. 选择「Open...」,回车;

          27. 选择「Continue」,回车;

          28. 配置完成,关闭终端;

          29. 重新打开终端,然后输入下方代码,重启配置;

            openclaw gateway

            30. 打开飞书开放平台,选择「事件与回调」→「订阅方式」→「使用长连接接收事件」→「保存」;

            31. 然后点击同一页面内的「添加事件」;

            32. 在弹出的列表中,搜索并添加 「接收消息」、「消息已读」、「机器人进群」、「机器人被移出群」,最后点击 「确认添加」;

            33. 添加完成后如下图所示;

            34. 点击「权限管理」→搜索「通讯录」→选中「获取通讯录基本信息」→「确认开通权限」;

            35. 配置完成后我们需要重新发布新版本,点击顶部「创建版本」;

            36. 按如图所示输入;

            37. 点击「确认发布」;

            38. 打开手机端「飞书」,搜索机器人的名字,给机器人发消息,如果机器人以AI的方式进行回复,那么恭喜你配置成功(太不容易了)。

            # OpenClaw常用命令

              openclaw onboard #重新进入配置向导openclaw status #查看运行状态openclaw health #健康检查openclaw gateway start #启动服务openclaw gateway stop #停止服务openclaw update #更新到最新版本openclaw doctor #诊断问题

              openclaw uninstall #卸载 OpenClaw

              # OpenClaw 技能库

              最后再推荐两个 OpenClaw 技能库,它就是给你的 AI 装上一堆「技能插件」,让它从“动嘴皮子”变成“真能干活”。

              1. 宝藏仓库地址 GitHub 地址:

              https://github.com/VoltAgent/awesome-openclaw-skills

              里面包含内容众多,可根据自身需求进行安装;

              2. ClawHub,精英特工的技能平台。

              官方网站:https://clawhub.ai/

              # 写到最后,我想说点什么

              其实 OpenClaw 刚发布时,就有朋友催我出教程。但我当时犹豫了很久,甚至想劝退大家。

              为什么?

              因为它太「初级」了,OpenClaw 代码是由 AI 生成的,这也导致了它存在很多 Bug,安全性也没有得到验证,而且运行起来非常消耗 Token。

              对大多数人来说,它现阶段更像是一个昂贵的玩具,而非能完全承载日常工作的自动化神器。

              但今天我为什么还是决定写这篇教程?

              因为我意识到,不完美,不代表没有价值。

              OpenClaw 代表了未来 AI 操控电脑的雏形,是通往全智能 AI 的必经之路。我也许无法向你推荐一个完美的成品,但我希望能带你体验一种全新的人机交互方式。

              在这个 AI 更新快到令人眩晕的时代,对于我们普通人不必成为造车的工程师,但一定要做最早学会驾驶的司机。

              希望我们持续保持好奇,紧跟这个时代,

              和 AI 一起,

              无限进步!

              # 参考文章

              https://docs.openclaw.ai/zh-CN

              https://cloud.tencent.com.cn/developer/article/2626160

              https://cloud.tencent.com/developer/article/2626151

              https://developer.aliyun.com/article/1709772

              https://cloud.tencent.com/developer/article/2624973

              Read more

              基于FunASR语音识别WebUI快速部署|科哥二次开发镜像实战

              基于FunASR语音识别WebUI快速部署|科哥二次开发镜像实战 1. 背景与技术选型 1.1 语音识别技术发展现状 近年来,随着深度学习在语音信号处理领域的深入应用,自动语音识别(ASR)技术取得了显著突破。特别是在中文场景下,基于端到端模型的语音识别系统已广泛应用于智能客服、会议转录、字幕生成等实际业务中。 FunASR 是由阿里云推出的一个开源语音识别工具包,支持多种主流模型架构,如 Paraformer、SenseVoice 等,具备高精度、低延迟和良好的可扩展性。其模块化设计使得开发者可以灵活集成 VAD(语音活动检测)、PUNC(标点恢复)、LM(语言模型)等功能组件。 1.2 科哥二次开发镜像的价值 本文所使用的镜像 “FunASR 语音识别基于speech_ngram_lm_zh-cn 二次开发构建by科哥” 是在官方 FunASR 基础上进行功能增强和界面优化的定制版本。该镜像主要特点包括: * 集成 speech_ngram_

              不仅是记忆:设计前端侧的AI对话历史存储与上下文回溯方案

              不仅是记忆:设计前端侧的AI对话历史存储与上下文回溯方案 在当前的大模型应用浪潮中,很多前端开发者切入AI领域的第一步往往是封装一个ChatGPT般的对话界面。起初,我们可能只是简单地将用户输入和AI回复Push到一个数组中,并在页面上渲染。然而,随着应用场景的深入,这种“玩具级”的架构很快就会面临严峻挑战。 背景:被忽视的“记忆”成本 很多前端同学在开发AI应用时,最容易踩的坑就是“只顾眼前交互,忽视持久化与上下文管理”。 痛点主要体现在三个方面: 1. 数据脆弱性:用户不小心刷新页面,长达几十轮的深度对话瞬间灰飞烟灭。这种体验在Web端是致命的,用户无法接受自己的“思考过程”因误操作而丢失。 2. 上下文窗口限制:大模型都有Token限制(如GPT-3.5的4k,GPT-4的8k/32k)。如果前端只是无脑累加历史记录发给后端,很快就会报错context_length_exceeded。前端必须具备“上下文回溯”与“裁剪”的能力。 3. 多会话管理:现代AI应用往往是多会话并行的(类似ChatGPT左侧列表)。如何高效索引、

              OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置)

              OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置) 如果你在本地运行大模型,比如用Ollama部署了Qwen、Llama或者DeepSeek,可能会发现一个尴尬的问题:模型的知识截止日期是固定的,它不知道今天股市涨跌,不清楚最新的科技新闻,甚至不知道明天是什么节日。这种“信息孤岛”的感觉,让本地大模型的实用性大打折扣。 我最初搭建OpenWebUI环境时,也遇到了这个痛点。看着模型一本正经地分析过时的数据,那种无力感让我开始寻找解决方案。市面上有不少联网搜索方案,但要么配置复杂,要么对国内网络环境不友好。经过几周的折腾和测试,我发现SearXNG这个开源元搜索引擎,配合OpenWebUI的联网搜索功能,是目前最稳定、最灵活的方案之一。 更重要的是,通过合理配置SearXNG,我们可以让本地大模型直接调用百度、360等国内搜索引擎,获取符合中文用户习惯的实时信息。这不仅仅是技术上的连接,更是让本地AI真正“接地气”的关键一步。下面我就把自己踩过的坑、验证过的配置,以及实际效果对比,毫无保留地分享给你。 1. 为什么需要SearXN

              前端代码质量保证:让你的代码更可靠

              前端代码质量保证:让你的代码更可靠 毒舌时刻 代码质量?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为随便写几个测试就能保证代码质量?别做梦了!到时候你会发现,测试代码比业务代码还多,维护起来比业务代码还麻烦。 你以为ESLint能解决所有问题?别天真了!ESLint只能检查代码风格,无法检查逻辑错误。还有那些所谓的代码质量工具,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 减少错误:代码质量保证可以帮助你发现和修复代码中的错误,减少生产环境中的问题。 2. 提高可维护性:高质量的代码更容易理解和维护,减少后期的维护成本。 3. 促进团队协作:统一的代码质量标准可以便于团队成员之间的协作,减少沟通成本。 4. 提高开发效率:高质量的代码可以减少调试和修复错误的时间,提高开发效率。 5. 提升代码安全性:代码质量保证可以帮助你发现和修复安全漏洞,提升代码的安全性。 反面教材 // 这是一个典型的代码质量问题示例 // 1. 代码风格不一致 function getUser(id) { return fetch(`/api/