ubuntu上安装OpenClaw并接入飞书机器人

ubuntu上安装OpenClaw并接入飞书机器人

大家好,我是一根甜苦瓜。今天来分享如何在本地安装openclaw并接入飞书,实现让AI给我打工。

最近AI圈更新太快了,从github copilotcursorclaud code ,再到codex,然后是最近火爆了的小龙虾(OpenClaw),可谓是百花齐放,应接不暇。本人也是github copilot+codex的深度用户,确实不错,所以最近打算折腾一下小龙虾,顺带教大家如何把智谱GLM 接入OpenClaw

1. 前言

1.1 什么是openclaw

2026 年开年,AI 圈突然冒出一匹“野生黑马”——OpenClaw。这个开源个人 AI 助手项目在 GitHub 上只用了 两周时间就狂揽 15 万 Star,速度堪比开挂。

简单说,它就像给你配了一个 24 小时不下班的数字打工人:
把它部署在自己的电脑或服务器上,它就能接入 WhatsAppTelegram、飞书、钉钉 等十多种聊天平台,帮你自动回复、处理消息、执行任务,活脱脱一个全年无休的 AI Agent。

而且最妙的是——
这个“员工”不领工资、不摸鱼、也不用年终奖,只要你给它一点算力和 API。

但是这也是最坑的地方——他烧Token的速度简直太快了,由于上下文积累,以及多轮推理,模型选择,系统提示词等等,很多地方都会消耗Token,这可能会导致费用爆炸。

1.2 环境介绍

据说openclaw最适配的硬件是mac mini,但是其实linux系统都比较适配。由于我正好有一台闲置的联想笔记本,并且是ubuntu系统,所以就用来试水啦。

由于openclaw的对硬件的权限很高,所以尽量不要用自己的主力开发机来安装,防止出现隐私泄露问题。

系统: ubuntu
前置要求:

  1. 必须能科学上网
  2. node >= 22.0

2. 前期准备

由于openclaw需要对接聊天软件,同时他自身没有模型,所以我们需要两个东西

  1. 大模型API。
  2. 聊天渠道

2.1 飞书准备

首先,您需要使用您的飞书账号登录飞书开放平台,点击开发者后台>扫码登录>点击创建企业自建应用。

在这里插入图片描述


输入应用名称和描述之后,直接点击创建即可。之后我们需要为这个应用添加一个机器人,如下图:

在这里插入图片描述


同时我们需要记住我们这个应用的AppIDAppSecret

在这里插入图片描述


接下来我们用这个appID 和 AppSecret来准备激活长连接。我们回到自己的ubuntu系统,在/usr/local目录下执行下面的操作:

(任意目录都可以,我这里习惯在这个目录安装)

克隆项目

git clone https://github.com/Futaoj/enable_openclaw_feishu_lark.git cd enable_openclaw_feishu_lark 

安装依赖

npminstall

配置环境变量,上面飞书应用的appIDSecret配置到环境变量中

exportFEISHU_APP_ID="your_app_id"exportFEISHU_APP_SECRET="your_app_secret"

启动长连接客户端

npm run ws 

成功启动后,你将看到类似以下输出:

🚀 正在启动飞书长连接客户端... 📱 App ID: cli_xxxxx... [info]: ['client ready'][debug]: ['[ws]', 'ws connect success'][info]: ['[ws]', 'ws client ready'] ✅ 长连接客户端已启动,等待事件... 

因为这个需要一直在后台运行,所以我们Ctrl+C取消,然后使用下面命令让其在后台运行

nohupnpm run ws > ws.log 2>&1&

接下来我们回到飞书开放平台,在刚才的应用下点击左边菜单栏【事件与回调】,然后点击订阅方式如下图:

在这里插入图片描述


这里选择使用长连接接收事件,然后保存

在这里插入图片描述


同时我们把回调配置也设置为长连接

在这里插入图片描述

然后在下方的找到【添加事件】,把下面这几个加上
• im.message.receive_v1(必需)
• im.message.message_read_v1
• im.chat.member.bot.added_v1
• im.chat.member.bot.deleted_v1

在这里插入图片描述


接下来就是飞书应用的权限配置,点击左侧菜单栏【权限管理】然后导入权限

在这里插入图片描述


将下面的json填入

{"scopes":{"tenant":["contact:contact.base:readonly","contact:user.base:readonly","contact:user.employee_id:readonly","contact:user.id:readonly","im:chat","im:chat.access_event.bot_p2p_chat:read","im:chat.members:read","im:chat.moderation:read","im:chat.tabs:read","im:chat.tabs:write_only","im:chat.top_notice:write_only","im:chat:moderation:write_only","im:chat:operate_as_owner","im:chat:read","im:chat:readonly","im:chat:update","im:message","im:message.group_at_msg:readonly","im:message.group_msg","im:message.p2p_msg:readonly","im:message.pins:read","im:message.pins:write_only","im:message.reactions:read","im:message.reactions:write_only","im:message.urgent","im:message.urgent.status:write","im:message:readonly","im:message:send_as_bot","im:message:send_multi_depts","im:message:send_multi_users","im:message:send_sys_msg","im:message:update","im:resource","im:url_preview.update","im:user_agent:read","passport:session_mask:readonly"],"user":[]}}

然后下一步确认权限,申请开通

在这里插入图片描述


最后点击确认

在这里插入图片描述


最后我们创建版本并发布

在这里插入图片描述


我们填入版本号和描述,拉到页面底部,点击保存即可

在这里插入图片描述


一会之后我们的飞书会收到类似这样的通知

在这里插入图片描述

![在这里插入图片描述](https://i-blog.ZEEKLOGimg.cn/direct/f44aa93cc9844faea0cd5503993ea894.png
到这里,和飞书的交到基本打完。按照流程走完之后我们只需要记住两个东西,AppIDAppSecret,一会要用。

2.2 申请大模型ApiKey

下面我们去智谱平台,注册账号,然后点击API Key,最后我们添加一个新的API key即可。注意要记住这个api key 哦,一会初始化的时候会用到

在这里插入图片描述

3. 安装并初始化

安装其实很简单,我们可以去看官方文档,当然这里我还是给大家粘贴出来

curl-fsSL https://openclaw.ai/install.sh |bash
openclaw onboard --install-daemon 

查看网关状态

openclaw gateway status 

然后初始化的时候配置OpenApi的时候选择Z.AI,然后粘贴上面申请的Key.

在这里插入图片描述


然后接入渠道选择飞书

在这里插入图片描述


最后安装完成可以在飞书中测试一手

在这里插入图片描述

总结

安装起来不难,主要是飞书接入要浪费点时间,还有就是保证电脑能科学上网。

Read more

MusePublic Art Studio实战教程:用Streamlit前端调用PyTorch后端SDXL

MusePublic Art Studio实战教程:用Streamlit前端调用PyTorch后端SDXL 1. 引言:当艺术创作遇上极简AI工具 想象一下,你是一位设计师,脑子里突然蹦出一个绝妙的视觉创意。过去,你可能需要打开复杂的软件,或者学习一堆代码才能把它变成图像。现在,有一个工具,它把最强大的AI图像生成能力,装进了一个像苹果产品一样简洁优雅的界面里,让你动动手指就能把想法变成高清画作。 这就是MusePublic Art Studio。 它不是一个冰冷的代码库,而是一个为你准备好的、开箱即用的艺术工坊。它的核心是业界顶尖的Stable Diffusion XL (SDXL)模型,但神奇的是,你完全不需要知道什么是“扩散模型”,也不需要写一行代码。所有复杂的计算都藏在后台,你面前只有一个干净、专注的创作空间。 本文将带你一步步走进这个工坊,从零开始,手把手教你如何启动它、使用它,并创作出你的第一幅AI艺术作品。你会发现,驾驭前沿的AI绘画技术,原来可以如此简单和愉悦。 2. 环境准备与一键启动 在开始创作之前,我们需要先把MusePublic Art Stu

通义千问3-14B环境部署教程:Ollama+WebUI双Buff叠加指南

通义千问3-14B环境部署教程:Ollama+WebUI双Buff叠加指南 1. 引言 1.1 学习目标 本文旨在为开发者提供一套完整、可落地的 Qwen3-14B 模型本地化部署方案,结合 Ollama 的轻量级模型管理能力与 Ollama WebUI 的可视化交互优势,实现“一键启动 + 图形操作”的高效开发体验。通过本教程,你将掌握: * 如何在本地环境中部署 Qwen3-14B 模型 * 配置 Ollama 实现模型加载与推理服务 * 搭建 WebUI 界面实现对话交互 * 切换 Thinking / Non-thinking 双模式进行差异化调用 * 性能优化建议与常见问题排查 最终达成:单卡(如 RTX 4090)运行 148 亿参数模型,支持 128k 上下文、多语言翻译、

告别 Selenium:Playwright 现代 Web 自动化测试从入门到实战

告别 Selenium:Playwright 现代 Web 自动化测试从入门到实战

告别 Selenium:Playwright 现代 Web 自动化测试简明教程 前言:为什么选择 Playwright? 在 Web 自动化测试领域,Selenium 曾长期占据主流,但面对现代前端框架(React/Vue/Next.js)、复杂 SPA 应用和多端适配需求,其局限性逐渐凸显。Microsoft 推出的 Playwright 框架,凭借跨引擎、跨平台、智能化的特性,成为新一代自动化测试的优选方案。 相比于传统的 Selenium 或 Cypress,Playwright 具有以下优势: * 极致性能:基于浏览器上下文(Browser Context)隔离测试环境,启动速度比 Selenium 快 30%+,无冗余进程开销; * 智能等待:内置自适应等待机制,自动等待元素可交互,