本地部署中文OpenClaw 飞书机器人部署指南

本地部署中文OpenClaw 飞书机器人部署指南

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用阿里云百炼作为大模型后端,通过飞书长连接模式实现 AI 机器人。


安装skills工具参考:OpenClaw 最新必安装 10 个 Skills-ZEEKLOG博客

自动化发布小红书:OpenClaw 实现小红书自动化发文:操作指南


步骤 1:安装 OpenClaw(openclaw中文社区)
  1. 打开 PowerShell
  2. 执行以下命令一键安装:
# 在 PowerShell 中运行 iwr -useb https://clawd.org.cn/install.ps1 | iex
  • 安装过程会自动下载 Node.js、依赖等,耗时几分钟。
  • 安装完成后会自动进入配置向导,或提示你继续下一步。
步骤 2:运行首次配置向导
  1. 重新打开一个 CMD
  2. 向导启动后:
    • 第一步通常会问是否继续 → 选择 YES
    • 在选择大模型提供商时,选 阿里云百炼(或你想用的其他平台,如 OpenAI、deepseek 等)。
    • 后面会引导你输入 API Key。

输入命令启动配置向导:

openclaw-cn onboard
步骤 3:获取阿里云百炼 API Key
  1. 浏览器访问阿里云百炼控制台
  2. 登录后,进入左侧菜单 密钥管理创建 API Key
  3. 创建完成后,立即复制 Key(通常以 sk- 或 bk- 开头)。
  4. 返回 onboard 向导,在对应位置粘贴这个 Key 并继续。
步骤 4:配置飞书机器人渠道
  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的飞书机器人App IDApp Secret,继续下一步直到向导完成。

步骤 5:启动网关服务

配置完成后,启动 OpenClaw 的网关(负责 WebSocket 长连接):

openclaw-cn gateway
  • 看到类似 “Listening on http://127.0.0.1:18789” 或 “Gateway ready” 即启动成功。
  • 保持这个窗口运行(或用 nohup / pm2 后台运行)。
步骤 6:访问管理后台并验证
  1. 浏览器打开命令中提示的网址(通常是 http://127.0.0.1:18789http://localhost:18789,可能带 token 参数)。
  2. 登录 OpenClaw 管理后台。
  3. 确认飞书渠道已连接:
    • 检查事件订阅是否为 长连接模式
    • 确认已添加的事件列表完整。
步骤 7:测试部署是否成功
  • 将机器人拉入飞书群或私聊。
  • 发送消息(如 @机器人 你好)。
  • 如果机器人正常回复(可能简单问候或调用百炼模型生成回答),则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认百炼 API Key 有效、配额充足。

Read more

2026 年最值得关注的开源低代码 / 零代码平台推荐

2026 年最值得关注的开源低代码 / 零代码平台推荐

无论是零代码小白还是资深开发者,都能在这些平台上找到适合自己的解决方案。今天,我们就来盘点一下 2026 年最值得关注的开源低代码 / 零代码平台,帮助您找到最适合的工具。 一、敲敲云 - 永久免费开源零代码平台 2026 年 1 月 12 日,敲敲云全新版本 v2.3.0 正式发布! 这一版本最大的亮点是正式宣布永久免费开放,彻底打破了传统零代码平台的用户数、应用数、表单数等多重限制,实现真正的零门槛、零成本使用。 敲敲云专注于为企业快速构建应用和工作流,是一款强大且易用的零代码平台。用户无需编写任何代码,即可通过丰富的组件库轻松创建各类应用,真正做到了 "人人都是开发者"。 产品特点: * 免费零代码使用,快速上手,无需开发背景 * 丰富的组件库和模板,满足多样化应用需求 * 可视化流程设计器,支持拖放式工作流设计 * 强大的工作流引擎,支持复杂流程逻辑与条件判断 * 优秀的团队协作功能,支持资源共享和协同开发 * 数据收集能力强,

从零构建FPGA上的Cortex-M0 SoC:解密AHB总线与软核协同设计

从零构建FPGA上的Cortex-M0 SoC:解密AHB总线与软核协同设计 在嵌入式系统开发领域,FPGA与ARM Cortex-M0处理器的结合为开发者提供了前所未有的灵活性和定制化可能。这种组合不仅能够满足特定应用场景的性能需求,还能大幅降低系统功耗和成本。本文将带您深入探索如何在FPGA平台上从零构建一个完整的Cortex-M0 SoC系统,重点解析AHB总线协议的关键实现细节,并分享软硬件协同设计的实战经验。 1. Cortex-M0软核基础与FPGA集成 ARM Cortex-M0作为ARM家族中最精简的32位处理器内核,以其出色的能效比和精简指令集架构(Thumb ISA子集)著称。在FPGA环境中,我们可以通过软核形式将其部署到可编程逻辑器件中,构建完整的片上系统。 1.1 Cortex-M0软核获取与特性 从ARM官网获取的Cortex-M0 DesignStart版本提供了完整的RTL代码(通常以加密网表形式提供),包含以下核心组件: * 三级流水线处理器核心 * 嵌套向量中断控制器(NVIC) * AHB-Lite总线接口 * JTAG调试接

ESP32 小智 AI 机器人入门教程从原理到实现(自己云端部署)

此博客为一篇针对初学者的详细教程,涵盖小智 AI 机器人的原理、硬件准备、软件环境搭建、代码实现、云端部署以及优化扩展。文章结合了现有的网络资源,取长补短,确保内容易于理解和操作。 简介: 本教程将指导初学者使用 ESP32 微控制器开发一个简单的语音对话机器人“小智”。我们将介绍所需的基础原理、硬件准备、软件环境搭建,以及如何编写代码实现语音唤醒和与云端大模型的对接。通过本教程,即使没有深厚的 AI 或嵌入式经验,也可以一步步制作出一个能听懂唤醒词并与人对话的简易 AI 机器人。本教程提供详细的操作步骤、代码示例和图示,帮助您轻松上手。 1. 基础原理 ESP32 架构及其在 AI 领域的应用: ESP32 是一款集成 Wi-Fi 和蓝牙的双核微控制器,具有较高的主频和丰富的外设接口,适合物联网和嵌入式 AI 应用。特别是新版的 ESP32-S3 芯片,不仅运行频率高达 240MHz,还内置了向量加速指令(

2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

在本地部署 Stable Diffusion 3.5:让 AI 绘图更便捷 前言 随着人工智能的快速发展,图像生成技术日益成熟,Stable Diffusion 3.5 作为一款强大的 AI 绘图工具,广泛应用于设计师、创作者等人群的视觉内容生成。它能够通过文本提示生成高质量图像,且具备较高的可控性和细腻的生成效果。 然而,默认情况下,Stable Diffusion 3.5 仅能在局域网内运行,远程操作或者出门时调整参数、查看进度会受到限制。在本文中,我们将通过本地部署的方式,帮助您克服这一限制,实现更加灵活的使用。 提示:不同型号的 Stable Diffusion 对硬件要求有所不同。以 Large Turbo 版本为例,推荐配备至少 8GB 显存以保证流畅运行。 文章目录在本地部署 Stable Diffusion