手把手教程:通过扣子平台部署OpenClaw并接入飞书,开启AI自动办公

手把手教程:通过扣子平台部署OpenClaw并接入飞书,开启AI自动办公
一分钟搭建,让Openclaw帮你干活

一、什么是OpenClaw?能干什么?

如果你还没听说过OpenClaw,那可能真的错过了2026年AI圈最火的项目。简单来说,OpenClaw是一个能让AI真正替你操作电脑的开源“数字员工”,而不仅仅是一个聊天的机器人。

它的核心价值可以概括为:从“只会说话的嘴”进化成了“能干活的双手”。你通过日常聊天软件(比如飞书、微信)给它派活,它不仅能听懂,还能像真人一样在你的电脑上执行操作——移动文件、浏览网页、发送邮件、跑代码、做数据分析,甚至帮你砍价。

OpenClaw的架构可以通俗地拆解为四个部分:

○ 前台(渠道适配器):你与它对话的窗口,支持飞书、钉钉、Telegram等多种IM工具
○ 大脑(大模型):负责理解指令、拆解任务,支持接入ChatGPT、Claude、Kimi等多种模型
○ 双手(技能插件):真正干活的部分,能操控浏览器、文件系统、邮件等
○ 档案柜(记忆系统):本地存储你的偏好和习惯,越用越懂你

最关键的是,OpenClaw采用本地优先设计,所有数据都保存在你自己的电脑里,不用担心隐私泄露问题。

二、目前使用OpenClaw的主要渠道

根据当前的生态发展,使用OpenClaw主要有以下几种方式:
部署方式特点适用人群
本地部署在自己的电脑或服务器上手动安装配置,自由度最高,但需要一定的技术基础开发者、技术爱好者
云厂商一键部署阿里云、腾讯云、火山引擎等均提供OpenClaw应用镜像,1-3分钟即可完成部署想快速上手的普通用户
扣子平台部署在扣子(Coze)AI应用开发平台上一键部署,自带联网搜索、无需自配大模型、大模型限时免费零基础新手、想低成本试水的用户
三种部署渠道弊端对比:
对比维度本地部署云厂商一键部署扣子平台部署(本文方案)
核心局限硬件门槛高、技术复杂严重安全风险(Gartner明确警告)无法操作本地电脑(只能操作云端服务器)
上手难度⚠️ 极高(需掌握命令行、Node.js,配置各种依赖)✅ 低(1-3分钟一键部署)✅ 最低(扣子平台可视化操作)
硬件成本⚠️ 高(Mac mini或RTX 4060+显卡,内存32GB+)✅ 低(按需付费)✅ 低(仅平台费89元/月)
隐私安全✅ 数据完全在自己电脑⚠️ 明文存储凭据、网关暴露、权限隔离缺失⚠️ 数据存储在扣子云端
本地操作能力✅ 可操作个人电脑的文件和软件❌ 只能操作云服务器❌ 只能操作云端虚拟环境
持续运行❌ 依赖本地开机,休眠中断✅ 7×24小时稳定运行✅ 7×24小时稳定运行
成本可控性⚠️ 硬件一次性投入高⚠️ API费用可能失控⚠️ 平台费+API费,注意自动续费
安全风险等级中(取决于个人防护意识)⚠️ 高(攻击者可获宿主机完整控制权)中(依赖平台防护)
适用人群技术爱好者、隐私敏感者、需操作本地电脑者想快速体验但可接受安全风险的尝鲜用户零基础新手、仅需云端任务者

一句话总结

  • 本地部署:真能操作你电脑,但技术门槛和硬件成本都高
  • 云厂商部署:上手快,但安全风险极大(Gartner建议企业立即阻止使用)
  • 扣子平台部署:新手友好,但只能处理云端任务,无法动你本地文件

本文的重点,就是教你如何通过扣子平台完成OpenClaw的云端部署,并将其接入飞书,让你在手机上就能随时召唤AI干活

三、为什么选择扣子平台部署?

相比于本地部署的繁琐和云厂商服务器的配置门槛,扣子平台有四个明显的优势:

  1. 自带联网搜索功能——无需额外配置
  2. 无需自行配置大模型——平台内置了可用的模型
  3. 大模型可限时免费使用——降低试错成本
  4. 暂时无网络带宽限制——体验流畅

当然需要提醒的是,扣子平台的高阶版或旗舰版是付费的(约89元/月),使用时要注意自动续费问题。

四、详细部署步骤:扣子平台一键安装OpenClaw

第一步:进入扣子平台并升级账号

  1. 访问 🔗扣子(Coze)编程平台官网
  2. 登录后,需要确保账号是个人高阶版或旗舰版才能使用部署功能

如果当前版本不够,按照提示完成升级

image.png

第二步:一键部署OpenClaw

  1. 等待系统自动完成环境配置和安装——整个过程完全自动化,不需要手动敲命令

点击“一键部署”按钮

image.png

在平台中找到OpenClaw的部署入口(通常在AI应用或智能体板块)

image.png

第三步:确认部署成功

部署完成后,你会看到一个管理界面,里面包含了OpenClaw的运行状态、配置选项等信息。到这里,OpenClaw本身已经搭建好了

image.png

五、配置飞书接入:让AI进入你的聊天框

第1步:在飞书开放平台创建应用

  1. 访问 🔗飞书开放平台
  2. 填写应用名称(比如“我的数字员工”)、上传头像
  3. 创建成功后,在“凭证与基础信息”页面,找到并记录两个关键信息:
    • App ID(如 cli_xxxxx)
    • App Secret(注意:只在创建时显示一次,务必保存好)

点击“创建企业自建应用”

image.png

第2步:配置应用权限,并发布应用

添加机器人应用能力,否则机器人无法正常工作。

在应用后台的“权限管理”页面,开启权限,也可以选择批量开启。

image.png

根据自己的使用场景选择需要开启的权限,我批量开启权限的代码为(如需要原代码评论区评论666):

image.png

所有权限申请后,需要等待审核通过。

第3步:配置事件订阅(最容易遗漏的一步!)

很多人在配置完前面步骤后发现机器人收不到消息,问题往往出在这里。在应用后台的“事件与回调”页面:

  1. 事件配置方式:选择“使用长连接接收事件”(推荐)
  2. 添加事件订阅:勾选以下事件
    • 接收消息 v2.0(im.message.receive_v1)——必需
    • 其他事件如“消息已读”等可根据需要选择
image.png
  1. 确保事件订阅的权限已审核通过

第4步:在OpenClaw中配置飞书插件

回到扣子平台部署好的OpenClaw管理界面,需要进行飞书插件的配置。只需要告诉它:帮我配置飞书渠道,App ID是什么,App Secret是什么。然后等待即可。

image.png


image.png

第5步:匹配配对码,完成授权。

将配对码提供open claw,完成配对命令完成授权

image.png

在飞书应用中向你的机器人发送任意消息(比如 “介绍下你自己”),机器人会回复一个 Pairing Code(配对码)

image.png

第6步:在飞书中找到机器人并测试

  1. 在飞书搜索框中搜索你创建的应用名称
  2. 找到机器人后,发送一条消息测试
  3. 如果配置正确,机器人应该能够正常回复
image.png

六、接入飞书后,我们可以怎么用?

⚠️ 重要提示:通过扣子平台部署的OpenClaw运行在云端Linux服务器上,它所能操作的“桌面”是指云端服务器的虚拟环境,不是你个人电脑的本地桌面。因此,像“整理我电脑上的文件”这类指令无法直接执行。下面是根据OpenClaw云端部署实际能力整理的使用场景:

场景一:联网信息查询与整理

这是云端OpenClaw最擅长的领域。你可以让机器人帮你查资料、做总结:
示例指令:

  • “帮我查一下2026年春节放假安排”
  • “搜索最近AI领域的三条重要新闻,用中文总结”
  • “对比一下ChatGPT和Claude的最新版本差异”

执行逻辑:OpenClaw通过扣子平台自带的联网搜索能力,获取信息后返回飞书。

image.png

场景二:云端数据处理

示例指令:

  • (发送一个Excel文件)“帮我把这个表格里的销售额按月份汇总”
  • (发送一份PDF)“提取这份合同的要点,列个清单给我”
  • “把这张图片里的文字识别出来”

执行逻辑:你在飞书发送文件 → OpenClaw下载到云端服务器 → 处理完成后把结果发回给你。

image.png

场景三:定时任务与提醒

设定好之后,机器人会准时把信息推送到你的飞书:
示例指令:

  • “每天早上8点,提醒我打卡”
  • “每周五下午5点,总结本周的行业新闻发我”
  • “每两小时检查一次这个网页有没有更新:https://xxx.com

执行逻辑:定时任务在云端服务器运行,到点自动推送消息。

image.png
image.png

场景四:内容创作与文案,文档生成

利用大模型能力,帮你写东西、改东西:
示例指令:

  • “你现在是资深的高级产品经理,现在根据***.html文件生成需求文档,便于开发工程师开发,测试工程师测试,内容详细需包含图片中的这几项内容(***),最后请以word文档的格式发我。”
  • “帮我写一封会议邀请邮件,主题是Q2产品规划”
  • “把这段话改成小红书风格:xxxx”

执行逻辑:纯文本生成,云端大模型直接处理。

image.png

场景五:群聊里的AI助手

把机器人拉进工作群,大家都可以@它:
示例指令:

  • 行政群:“@机器人 公司的报销流程是怎么样的?”(需要你提前把制度文档喂给它)
  • 执行逻辑:群聊消息通过飞书 → 扣子平台 → 大模型理解回复。

八、结语

通过扣子平台部署OpenClaw再接入飞书,是目前上手最快、门槛最低的方式之一。整个过程不需要写一行代码,就能拥有一个24小时待命的数字员工。
从“只会聊天”到“真能干活”,OpenClaw代表的是AI应用的新阶段。希望这篇教程能帮你顺利“养”起属于自己的那只“龙虾”,真正体验到AI替你打工的快乐。

Read more

2025浏览器指纹伪装终极指南:Playwright修改WebGL+时区+分辨率,小红书爬1000条零验证

2025浏览器指纹伪装终极指南:Playwright修改WebGL+时区+分辨率,小红书爬1000条零验证

2025年小红书反爬再升级,核心拦截逻辑已从“IP+UA”转向“浏览器指纹+行为特征”的双重校验——之前用普通Playwright爬虫爬500条笔记就触发滑块验证,换了3个代理池都没用;直到彻底搞定浏览器指纹伪装(WebGL+Canvas+时区+分辨率全维度对齐真实设备),再配合人类级行为模拟,爬1000条笔记零验证,IP存活时间从20分钟延长到8小时,数据准确率99.7%。 这篇文章不搞虚的,全程还原我2025年爬取小红书的实战经验:从小红书指纹检测的核心维度,到Playwright底层指纹修改的具体代码,再到零验证爬取的完整流程,每个步骤都附可直接运行的代码和验证方法,连“指纹一致性校验”“行为时序异常”这些新坑都给你填好,新手也能复现“1000条零验证”的效果。 一、先搞懂:2025小红书反爬的核心——浏览器指纹检测 小红书的反爬系统像个“设备安检员”,通过提取浏览器底层特征生成唯一“设备ID”,一旦识别到“机器指纹”,直接触发滑块/短信验证。2025年重点检测这5个指纹维度,缺一不可: 指纹类型检测核心爬虫常见暴露点WebGL指纹显卡厂商、渲染器型号、着色器参数P

Linux 下 Tomcat 结合内网穿透 实现 Web 应用公网访问

Linux 下 Tomcat 结合内网穿透 实现 Web 应用公网访问

前言 在日常的 Web 开发与测试中,常常会遇到这样的困扰:本地部署好的 Java Web 项目,只能在局域网内访问,想要让异地的同事协作调试、给客户演示功能,或是外出时远程查看项目运行状态,往往需要繁琐的公网 IP 配置、端口映射,甚至要依赖云服务器部署。 而有一种实用的内网穿透功能,能轻松打破这种网络限制 —— 它可以将本地运行的服务,无需复杂配置就能映射到公网,生成可全球访问的地址,让本地的 Tomcat 服务随时被外部设备访问。 今天我们要分享的,就是如何借助这一功能,搭配经典的 Tomcat 服务器,在 Linux 系统中快速实现 Web 应用的公网访问,整个过程简单易操作,几分钟就能完成配置,解决开发和演示中的网络访问难题。 1.在CentOs7上安装OpenJDK 在已安装套件中查找含有java字符串的文件: rpm-qa|grepjava 若没有安装则开始安装吧! 查询yum中存在的JDK版本: yum list |grep java-11

3D效果:HTML5 WebGL结合AI实现智能3D场景渲染

3D效果:HTML5 WebGL结合AI实现智能3D场景渲染 📝 本章学习目标:本章聚焦高级主题,帮助读者掌握工程化开发能力。通过本章学习,你将全面掌握"3D效果:HTML5 WebGL结合AI实现智能3D场景渲染"这一核心主题。 一、引言:为什么这个话题如此重要 在前端技术快速发展的今天,3D效果:HTML5 WebGL结合AI实现智能3D场景渲染已经成为每个前端开发者必须掌握的核心技能。HTML5作为现代Web开发的基石,与AI技术的深度融合正在重新定义前端开发的边界和可能性。 1.1 背景与意义 💡 核心认知:HTML5与AI的结合,让前端开发从"静态展示"进化为"智能交互"。这种变革不仅提升了用户体验,更开辟了前端开发的新范式。 从2020年TensorFlow.js的成熟,到如今AI辅助开发工具的普及,前端开发正在经历一场智能化革命。据统计,超过70%的前端项目已经开始尝试集成AI能力,AI辅助前端开发工具的市场规模已突破十亿美元。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,

2026 前端 / 后端 / 算法岗 AI 技能清单,直接对标大厂

2026 前端 / 后端 / 算法岗 AI 技能清单,直接对标大厂

2026 大厂前端岗 AI 技能清单 核心基础技能 * 大模型前端适配能力:掌握大模型上下文管理,实现对话历史的高效存储与加载,适配流式输出的前端渲染逻辑。 * AI 组件开发:熟练开发基于大模型的智能组件,如代码补全、智能问答、内容生成类组件,支持参数化配置与多模型切换。 * 向量数据库集成:掌握 Pinecone、Weaviate 等向量数据库的前端调用方法,实现语义搜索、相似内容推荐等功能。 进阶实践技能 * 大模型微调适配:理解大模型微调原理,能够基于前端业务场景,将微调后的模型部署至前端环境,实现模型轻量化调用。 * 多模态交互开发:支持文本、图像、音频等多模态输入的前端处理,对接多模态大模型 API 实现智能交互。 * AI 性能优化:实现大模型请求的批量处理、缓存复用与增量更新,降低前端请求延迟与资源消耗。 实战代码示例 以下为基于 OpenAI API 实现的流式对话前端组件,使用 React 18 开发: