OpenClaw安装和接入飞书机器人完整教程

OpenClaw安装和接入飞书机器人分三大部分组织回答:
1)先讲环境准备和OpenClaw基础安装(分阿里云和本地Windows两种场景);

2)再讲飞书机器人配置(包括应用创建、通道添加、事件订阅);

3)最后讲验证和配置AI模型。

为了更直观,在部署方式对比、配置项说明等地方用表格呈现。

这是一份完整的OpenClaw安装及接入飞书机器人的教程。将涵盖从环境准备、OpenClaw部署(含阿里云服务器和本地Windows两种方式)、AI模型(以阿里云百炼为例)配置,到最终在飞书开放平台创建并接入机器人的全流程。


第一部分:准备工作与核心认知

在开始动手前,我们需要先了解 OpenClaw 是什么,并准备好必要的账号和工具。

1.1 什么是 OpenClaw?

OpenClaw(昵称“小龙虾”,曾用名 ClawdBot / Moltbot)是一个开源的个人AI智能体框架。它本身不具备推理能力,需要对接大语言模型(如阿里云百炼、七牛云、OpenAI等)的API。它的核心价值在于:

  • 真正的执行能力:能通过“技能”(Skills)直接操作电脑、调用插件 。
  • 多平台接入:支持接入飞书、Telegram、WhatsApp 等聊天软件 。
  • 部署灵活:可以部署在云端(7×24小时运行)或个人电脑本地 。

1.2 环境与物料清单

在部署前,请确保你准备好了以下内容:

  • 服务器/电脑
    • 方案A(推荐):阿里云轻量应用服务器(2核4GB内存以上,系统推荐 Ubuntu 22.04 或 OpenClaw 官方镜像)。
    • 方案B:本地 Windows 11 电脑(内存建议 8GB 以上,需安装 Node.js 和 Git)。
  • 必备账号与凭证
    • 阿里云账号:用于开通百炼大模型服务(或其他模型提供商,如七牛云)并获取 API Key 。
    • 飞书企业账号:用于登录飞书开放平台创建机器人 。
  • 基础工具
    • 终端工具:Windows 需管理员权限的 PowerShell;Mac/Linux 用自带终端 。
    • 远程连接工具:如使用云服务器,需准备 Finalshell、Xshell 或使用阿里云 WebShell 。

第二部分:OpenClaw 基础环境部署

OpenClaw 依赖 Node.js 运行。你可以根据自己的情况选择在云服务器或本地 Windows 上部署。

2.1 方案 A:阿里云服务器部署(7x24小时运行,推荐)

适合团队协作、需要长期稳定运行的场景。

2.1.1 获取阿里云百炼 API Key(用于AI大脑)

OpenClaw 需要一个大模型来“思考”,我们以阿里云百炼平台的模型为例 。

  1. 访问 阿里云百炼大模型控制台,完成实名认证。
  2. 在“API-KEY 管理”中,点击创建 API-Key
  3. 复制生成的密钥(格式如 sk-...),保存好备用
2.1.2 一键购买与部署(新手最快方式)

阿里云提供了包含 OpenClaw 的轻量应用服务器镜像,可以实现一键部署 。

  1. 进入专题页:访问阿里云 OpenClaw 一键部署专题页面,点击 【一键购买并部署】
  2. 选购服务器
    • 镜像:选择 OpenClaw(Moltbot)镜像。如果已有服务器,可以重置系统选择此镜像。
    • 实例规格:内存必须 2GiB 及以上(建议4GiB)。
    • 地域:如需联网搜索功能,建议选择非中国大陆地域(如美国(弗吉尼亚)),或使用香港地域 。
  3. 配置百炼 API
    • 购买完成后,进入轻量应用服务器控制台,找到你的实例。
    • 点击进入应用详情页。
    • 在“OpenClaw使用步骤”区域,单击配置百炼API-Key的“执行命令”,输入刚才保存的 API-Key 。
  4. 放行端口:在应用详情页,点击端口放通的“执行命令”,一键放行 18789(OpenClaw 控制台)等必要端口 。
  5. 获取访问地址:点击访问 Web UI 面板的“执行命令”,获取访问地址。在本地浏览器打开该地址(格式为 http://服务器公网IP:18789),即可看到 OpenClaw 控制台 。
2.1.3 Docker 手动部署(进阶稳定)

如果你更喜欢用 Docker 进行环境隔离,可以通过 SSH 连接到服务器后执行以下命令 :

# 1. 拉取官方镜像docker pull openclaw/openclaw:2026.3.8 # 2. 创建数据目录mkdir-p /opt/openclaw/{config,skills,agents,logs,feishu-config}# 3. 启动容器docker run -d\--name openclaw \--restart always \-p18789:18789 \-v /opt/openclaw/config:/app/config \-v /opt/openclaw/skills:/app/skills \-v /opt/openclaw/feishu-config:/app/feishu-config \-eTZ=Asia/Shanghai \ openclaw/openclaw:2026.3.8 # 4. 进入容器进行初始化dockerexec-it openclaw bash openclaw init --feishu

2.2 方案 B:本地 Windows 11 部署(测试、隐私优先)

适合个人测试或数据不想上传云端的场景 。

2.2.1 安装系统依赖
  1. 安装 Node.js
    • 下载 Node.js 官网的 LTS 版(22.x 或 24.x)。
    • 安装时务必勾选 “Add to PATH”
    • 安装后打开 PowerShell,输入 node -vnpm -v 验证版本 。
  2. 安装 Git:从 Git 官网下载安装包,保持默认选项,确保 “Git Bash Here” 和 “Add Git to PATH” 被勾选 。
  3. 安装 Visual C++ Redistributable:Win10/Win11 通常需要此运行库,从微软官网下载安装 x64 版本 。
2.2.2 配置 PowerShell 与 npm 镜像
  1. 以管理员身份打开 PowerShell

配置 npm 国内镜像(加速下载):

npm config set registry https://registry.npmmirror.com/ 

解除脚本执行限制(关键步骤):

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser Set-ExecutionPolicy-Scope Process-ExecutionPolicy Bypass 

Y 确认 。

2.2.3 一键安装 OpenClaw

在 PowerShell 中执行官方 Windows 安装脚本:

iwr-useb https://openclaw.ai/install.ps1 |iex

等待脚本自动运行完成 。

2.2.4 初始化与启动

打开控制面板

openclaw dashboard 

浏览器会自动打开 http://127.0.0.1:18789,进入 OpenClaw 图形化管理界面 。

运行配置向导(首次安装):

openclaw onboard --install-daemon

此向导会引导你设置模型提供商(可先跳过或临时选择,后续会修改)。

启动 Gateway 服务

openclaw gateway start

第三部分:配置 AI 模型(以阿里云百炼为例)

无论你采用哪种部署方式,安装完成后,都需要告诉 OpenClaw 使用哪个大模型。你可以通过修改配置文件或在 Web UI 中完成。

3.1 配置文件方式

OpenClaw 的配置文件通常位于 ~/.openclaw/openclaw.json(Linux/Mac)或 C:\Users\你的用户名\.openclaw\openclaw.json(Windows)。
在配置文件的 models.providers 中添加阿里云百炼(或七牛云等兼容OpenAI格式的)配置 :

{"models":{"providers":{"bailian":{"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1","apiKey":"你的阿里云百炼API-KEY","api":"openai-completions","models":[{"id":"qwen-plus","name":"通义千问-Plus","contextWindow":128000,"maxTokens":8192},{"id":"qwen-max","name":"通义千问-Max","contextWindow":128000,"maxTokens":8192}]}}}}

注意:apiKey 也可以通过环境变量 ${BAILIAN_API_KEY} 引用,更安全 。

3.2 使用 Onboarding 向导

如果你不想手动编辑文件,也可以在终端重新运行 openclaw onboard 命令,在交互式菜单中选择 “Model/auth provider”,然后选择 “阿里云百炼” 并粘贴你的 API Key 。

第四部分:接入飞书机器人(核心步骤)

这是让 OpenClaw 进入飞书群聊的关键环节。

4.1 在飞书开放平台创建应用

  1. 访问飞书开放平台,登录你的企业账号。
  2. 点击**“创建应用”** -> “企业自建应用”,填写应用名称(如“我的小龙虾助手”)和描述 。
  3. 创建完成后,进入应用详情页,点击左侧**“凭证与基础信息”**,获取 App IDApp Secret(保存好,后面要用)。

4.2 配置 OpenClaw 飞书通道

  1. 获取事件订阅地址
    添加通道后,OpenClaw 会生成一个用于接收飞书事件的 HTTP 地址(通常是 https://你的公网IP或域名:18789/api/v1/channels/feishu/webhook 或类似格式)。
    • 如果是本地部署,需要使用内网穿透工具(如 ngrok)将本地地址暴露到公网。
    • 如果是云服务器,请确保使用的是公网 IP,并且防火墙(以及阿里云安全组)已放行 18789 端口 。

在 OpenClaw 中添加飞书通道
在你的 OpenClaw 服务器终端(或本地 PowerShell)中执行:

# 格式:openclaw channels add --channel feishu --token "你的AppID:你的AppSecret" openclaw channels add--channel feishu --token"cli_xxxxxxxx:你的AppSecret"

参考 QQ Bot 的添加逻辑 。

4.3 配置飞书应用的事件订阅

  1. 回到飞书开放平台的应用管理后台。
  2. 点击左侧**“事件订阅”**。
  3. 在“请求地址配置”中,粘贴上一步获取的 OpenClaw 事件订阅地址 。
  4. 点击**“加密策略”**后面的“编辑”,添加事件。
    • 搜索并添加 message 相关的权限和事件(如 接收消息),这是机器人能收到并回复消息的基础。
  5. 添加完成后,点击“保存”。

4.4 配置权限与发布

  1. 权限管理:在左侧“权限管理”中,添加机器人需要的权限。通常至少需要:
    • im:message
    • im:message:send_as_bot (以机器人的身份发送消息)
    • im:chat (获取群聊信息)
  2. 发布版本:点击左侧“版本管理与发布”,创建一个版本并提交审核(需企业管理员审核)。或者,如果你是企业管理员,可以直接点击“申请发布”,然后在审核中通过 。

4.5 将机器人添加到飞书群

  1. 在飞书客户端,打开你想让机器人工作的群聊。
  2. 点击群设置 -> “群机器人” -> “添加机器人”
  3. 搜索你刚才创建的应用名称(如“我的小龙虾助手”),点击添加。

第五部分:验证与使用

  1. 检查 OpenClaw 状态
    在服务器终端执行 openclaw statusopenclaw doctor,确保 Gateway 正在运行,且飞书通道状态正常 。
  2. 在飞书群中互动
    • 在飞书群里直接 @ 你的机器人,发送一条消息,比如“你好”。
    • 如果配置正确,机器人会调用配置好的大模型进行思考,并回复消息 。
    • 进阶技巧:OpenClaw 支持多智能体,你可以配置多个飞书机器人账号加入同一个群,分别响应不同领域的问题(如一个负责编程,一个负责文案),实现“一群多助手” 。

常见问题排查

  • 提示 openclaw: command not found
    npm 全局安装目录未添加到 PATH。执行 npm prefix -g 找到路径(如 /usr/local),然后将 /usr/local/bin 添加到系统的 PATH 环境变量中 。
  • 飞书机器人无回复
    1. 检查飞书开放平台的事件订阅地址是否验证通过。
    2. 检查服务器防火墙和安全组是否放行了 18789 端口。
    3. 查看 OpenClaw 日志:openclaw gateway status 或查看 /var/log/openclaw/ 下的日志文件 。
    4. 确认 API Key 是否有效,余额是否充足。
  • 服务启动失败/内存不足
    OpenClaw 需要至少 2GB 可用内存(建议 4GB)。如果是低配服务器,建议增加 Swap(交换分区)或升级配置 。

通过以上步骤,你应该已经成功将 OpenClaw 接入飞书,拥有一个 24 小时在线的 AI 协作了。

Read more

AI 智能编码工具:重塑开发效率的革命,从 GitHub Copilot 到国产新秀的全面解析

AI 智能编码工具:重塑开发效率的革命,从 GitHub Copilot 到国产新秀的全面解析

目录 引言 一、主流智能编码工具深度测评:从功能到实战 1. GitHub Copilot:AI 编码的 “开山鼻祖” 核心特性与实战代码 优缺点总结 2. Baidu Comate:文心大模型加持的 “国产之光” 核心特性与实战代码 优缺点总结 3. 通义灵码:阿里云的 “企业级编码助手” 核心特性与实战代码 优缺点总结 引言 作为一名拥有 8 年开发经验的程序员,我曾无数次在深夜对着屏幕反复调试重复代码,也因记不清框架语法而频繁切换浏览器查询文档。直到 2021 年 GitHub Copilot 问世,我才第一次感受到:AI 不仅能辅助编码,更能彻底改变开发模式。如今,智能编码工具已从 “尝鲜选项” 变为 “必备工具”,它们像经验丰富的结对编程伙伴,能精准补全代码、生成测试用例、

第二章-AIGC入门-小白也能看懂的AI图像生成指南:从原理到实战(5/36)

第二章-AIGC入门-小白也能看懂的AI图像生成指南:从原理到实战(5/36)

摘要:AI图像生成是基于深度学习的人工智能技术,能依据文本或图像输入生成新图像。其原理主要基于生成对抗网络(GAN)和变分自编码器(VAE),通过生成器和判别器的对抗训练(在 GAN 中),或编码器和解码器的协作(在 VAE 中),实现图像生成。AI图像生成在艺术创作、商业设计、影视游戏、日常生活等方面有广泛应用,但也面临伦理、版权、技术准确性等挑战。 一、AI 图像生成是什么 AI 图像生成,作为人工智能技术在数字创作领域的重要应用,正深刻地改变着我们生成和理解图像的方式。简单来说,AI 图像生成是利用人工智能算法,依据给定的输入(如文本描述、图像示例等),通过对大量数据的学习和分析,自动生成全新图像的技术。 从原理上讲,AI 图像生成技术建立在深度学习模型的基础之上,其中最为常用的是生成对抗网络(GAN)和变分自编码器(VAE) 。以生成对抗网络为例,它由生成器和判别器两个部分组成。生成器负责生成图像,判别器则用于判断生成的图像是否真实。两者相互对抗、

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

Mac M系列芯片适配:mlc-llm与llama.cpp对比

Mac M系列芯片适配:mlc-llm与llama.cpp对比 在大语言模型(LLM)逐步从云端走向本地终端的今天,如何在消费级设备上高效运行数十亿参数的模型,成为开发者和研究者共同面对的挑战。苹果自推出搭载M系列芯片的Mac以来,其基于ARM架构的统一内存架构(UMA)与强大的GPU性能,为本地化推理提供了前所未有的硬件基础。然而,由于主流深度学习生态长期依赖CUDA,而Mac缺乏NVIDIA GPU支持,使得多数框架难以直接发挥其全部潜力。 在此背景下,mlc-llm 与 llama.cpp 脱颖而出——它们不依赖传统深度学习运行时,而是通过底层优化,在Apple Silicon上实现了令人惊喜的推理效率。两者路径迥异:一个走“编译驱动、GPU加速”的技术路线,另一个则坚持“极简主义、CPU优先”的哲学。究竟谁更适合你的使用场景?本文将深入剖析二者在Mac平台的技术实现、性能表现与适用边界。 技术内核解析:两条不同的优化路径 mlc-llm:用编译器挖掘Metal的极限算力 mlc-llm并非简单的推理引擎,它本质上是一个面向大模型的端到端编译系统。其核心思想是利用TV