OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人


🔖 摘要: 本文详细介绍 OpenClaw 在 Windows 环境下的完整部署流程,采用模块化步骤设计:安装 OpenClaw → 配置 Coding Plan(阿里/火山/智谱三选一或多选)→ 使用 CC Switch 可视化管理 → 接入飞书机器人。结构清晰,按需查阅,一篇搞定国内 AI Agent 全链路配置。🏷️ 适用读者: 希望低成本、高效率使用 AI Agent 的国内开发者

扫码关注微信公众号,获取一键部署小龙虾资源!!!

扫码关注微信公众号,获取一键部署小龙虾资源

📋 文章目录结构

步骤一:环境准备与 OpenClaw 安装 ↓ 步骤二:配置 Coding Plan 模型(三选一或多选) ├── 选项 A:阿里百炼 Coding Plan ├── 选项 B:火山引擎 Coding Plan └── 选项 C:智谱 GLM Coding Plan ↓ 步骤三:使用 CC Switch 可视化管理(可选但推荐) ↓ 步骤四:接入飞书机器人(可选) ↓ 步骤五:验证与测试 ``` --- # 步骤一:安装 OpenClaw ## 1.1 系统要求 | 项目 | 要求 | |:---|:---| | 操作系统 | Windows 10 / 11 x64 | | 内存 | 至少 8GB(推荐 16GB) | | Node.js | **v22.0** 或更高版本 | ## 1.2 安装 Node.js 检查是否已安装: ```powershell node --version 

如未安装或版本低于 22,前往 Node.js 官网 下载 v22+ LTS 版本安装。

1.3 一键安装 OpenClaw(推荐)

PowerShell 中执行:

iwr-useb https://openclaw.ai/install.ps1 |iex
💡 这会自动安装 Node.js(如缺失)并完成 OpenClaw 基本配置。

1.4 通过 npm 手动安装

如一键脚本不可用,可手动安装:

# 设置国内镜像加速 npm config set registry https://registry.npmmirror.com # 全局安装 OpenClaw npm i -g openclaw 

1.5 运行 Onboard 向导

安装完成后会自动进入配置向导,也可手动执行:

openclaw onboard 

向导交互步骤:

步骤操作
① 安全警告 选择 Yes,按 Enter 确认
② 模型提供商选择 Skip(后续通过 Coding Plan 配置)
③ 通讯渠道选择 Skip for now(后续配置飞书)
④ 技能初始化选择 Yes,启用核心技能框架
⑤ Gateway 配置选择 QuickStart,自动配置默认端口 18789

1.6 验证安装

# 查看版本 openclaw --version # 检查 Gateway 状态 openclaw status 

看到版本号和 Gateway 运行状态即表示安装成功。


步骤二:配置 Coding Plan 模型

💡 说明: Coding Plan 是专为 AI 编程场景打造的固定月费订阅套餐,相比按量计费有以下优势:✅ 国内直连,无需代理✅ 固定月费,超出限额不计费,无欠费风险✅ 多模型自由切换
本步骤提供三个平台选项,你可以任选其一同时配置多个(便于切换备用)。

🅰️ 选项 A:阿里百炼 Coding Plan

A.1 订阅与获取凭证

  1. 访问 阿里云百炼 Coding Plan
    1. 选择 Lite 基础版Pro 高级版 并完成支付
    1. 获取 Coding Plan 专属凭证
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 格式为 sk-sp-xxxxx(在 Coding Plan 页面获取) |
      | Base URL | https://coding.dashscope.aliyuncs.com/v1 |
⚠️ 重要: Coding Plan 有专属 API Key,与百炼通用按量计费的凭证不互通

A.2 在 OpenClaw 中配置

方式一:Web UI 配置(推荐)

openclaw dashboard 

浏览器打开后:Config → All Settings → RAW,粘贴以下配置:

📝 将 YOUR_CODING_PLAN_API_KEY 替换为你的 Key
{"models":{"providers":{"bailian":{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"qwen3-coder-plus","name":"Qwen3 Coder Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false},{"id":"MiniMax-M2.5","name":"MiniMax M2.5","reasoning":false}]}}},"agents":{"defaults":{"model":{"primary":"bailian/qwen3.5-plus"}}}}``` > ⚠️ **注意:** 必须设置 `"reasoning":false`,否则部分模型回复为空。 **方式二:命令行配置** ```powershell openclaw config set'models.providers.bailian'--json '{"baseUrl":"https://coding.dashscope.aliyuncs.com/v1","apiKey":"YOUR_CODING_PLAN_API_KEY","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus","reasoning":false},{"id":"glm-5","name":"GLM-5","reasoning":false},{"id":"kimi-k2.5","name":"Kimi K2.5","reasoning":false}]}' openclaw models set bailian/qwen3.5-plus 

A.3 可用模型列表

模型 ID说明
qwen3.5-plus千问旗舰版,综合能力最强
qwen3-coder-plus专注编程场景
qwen3-coder-next轻量快速版
glm-5智谱旗舰模型
kimi-k2.5月之暗面,长文本处理
MiniMax-M2.5迷你 max 模型

🅱️ 选项 B:火山引擎 Coding Plan

B.1 订阅与获取凭证

  1. 访问 火山引擎方舟 Coding Plan
    1. 订阅套餐(Lite / Pro)
    1. 获取凭证:
      | 凭证 | 值 |
      |:—|:—|
      | API Key | 方舟 Coding Plan API Key |
      | Base URL | https://ark.cn-beijing.volces.com/api/coding/v3 |

B.2 在 OpenClaw 中配置

{"models":{"providers":{"volcengine":{"baseUrl":"https://ark.cn-beijing.volces.com/api/coding/v3","apiKey":"YOUR_ARK_API_KEY","api":"openai-completions","models":[{"id":"ark-code-latest","name":"Ark Code Latest"},{"id":"kimi-k2.5","name":"Kimi K2.5"},{"id":"doubao-seed-2.0-code","name":"Doubao-Seed-2.0-Code"},{"id":"glm-4.7","name":"GLM-4.7"},{"id":"deepseek-v3.2","name":"DeepSeek-V3.2"}]}}},"agents":{"defaults":{"model":{"primary":"volcengine/ark-code-latest"}}}}``` ### B.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `ark-code-latest` | 方舟自动调度最优模型 | | `doubao-seed-2.0-code` | 豆包最新编程模型 | | `kimi-k2.5` | 理解力强,响应稳定 | | `deepseek-v3.2` | 深度推理能力强 | | `glm-4.7` | 智谱编程模型 | --- ## 🅾️ 选项 C:智谱 GLM Coding Plan ### C.1 订阅与获取凭证 1. 访问 [智谱 GLM Coding Plan](https://bigmodel.cn/glm-coding) 2. 2. 在 [智谱开放平台](https://open.bigmodel.cn/) 创建 API Key 3. 3. Base URL: | 版本 | Base URL | |:---|:---| | 国内版 | `https://open.bigmodel.cn/api/paas/v4` | | 国际版(Z.AI) | `https://api.z.ai/api/paas/v4` | > ⚠️ **注意:** 请勿选择 Flash/FlashX 等模型,以免造成额外扣费。 ### C.2 在 OpenClaw 中配置 ```json {"models":{"providers":{"glm":{"baseUrl":"https://open.bigmodel.cn/api/paas/v4","apiKey":"YOUR_GLM_API_KEY","api":"openai-completions","models":[{"id":"GLM-5","name":"GLM 5"},{"id":"GLM-4.7","name":"GLM 4.7"},{"id":"GLM-4.6","name":"GLM 4.6"},{"id":"GLM-4.5-air","name":"GLM 4.5 Air"}]}}},"agents":{"defaults":{"model":{"primary":"glm/GLM-5"}}}}``` ### C.3 可用模型列表 | 模型 | 说明 | |:---|:---| | `GLM-5` | 最新旗舰,擅长复杂工程 | | `GLM-4.7` | 强化编码能力 | | `GLM-4.6` | 通用能力均衡 | | `GLM-4.5-air` | 轻量快速 | --- ## 📊 三大平台对比 | 平台 | Base URL | 主力模型 | 特点 | |:---|:---|:---|:---| | **阿里百炼** | `coding.dashscope.aliyuncs.com/v1` | qwen3.5-plus, glm-5, kimi-k2.5 | 模型最全,4 家顶尖模型集成 | | **火山引擎** | `ark.cn-beijing.volces.com/api/coding/v3` | Ark-Code, Kimi-K2.5, DeepSeek-V3.2 | 字节算力保障,Auto 智能调度 | | **智谱 GLM** | `open.bigmodel.cn/api/paas/v4` | GLM-5, GLM-4.7 | GLM 原厂,编程能力强 | > 💡 **建议:** 可同时配置多个平台,通过 CC Switch 一键切换。 --- # 步骤三:使用 CC Switch 可视化管理 > 💡 **说明:** 此步骤为**可选但强烈推荐**,CC Switch 提供图形化界面,让模型切换和管理变得非常简单。 ## 3.1 什么是 CC Switch **CC Switch** 是基于 Rust + Tauri 构建的跨平台桌面应用,专为 **Claude Code、Codex、Gemini CLI、OpenCode、OpenClaw** 五大 AI 编程工具设计。 **核心功能:** | 功能 | 说明 | |:---|:---| | 供应商管理 | 一键切换不同 AI 平台 API 配置 | | 统一 MCP/Skills 管理 | 一个面板管理多个应用 | | 系统托盘快速切换 | 无需打开完整应用 | | OpenClaw 专属面板 | Env、Tools、AgentsDefaults 三大编辑器 + Workspace | | 内置 50+ 供应商预设 | 含阿里百炼、火山引擎、智谱等 | | 本地代理 + 故障转移 | 自动切换备用模型,保障稳定性 | > 💡 CC Switch **v3.11.0** 起正式新增对 OpenClaw 的完整管理支持。 ## 3.2 安装 CC Switch 1. 访问 [CC Switch GitHub Releases](https://github.com/farion1231/cc-switch/releases) 2. 2. 下载 `CC-Switch-v{版本号}-Windows.msi` 安装包 3. 3. 双击运行安装程序 ## 3.3 添加 Coding Plan 供应商 **第一步:** 启动 CC Switch,顶部切换到 **OpenClaw** 选项卡 **第二步:** 点击右侧橙色 **`+`** 按钮(Add Provider) **第三步:** 填写供应商信息(以阿里百炼为例): | 字段 | 值 | |:---|:---| | 名称 | `Alibaba Bailian Coding Plan` | | Base URL | `https://coding.dashscope.aliyuncs.com/v1` | | API Key | 你的 Coding Plan 专属 Key(`sk-sp-xxxxx`) | | 主模型 | `qwen3.5-plus` | > 同理可添加火山引擎和智谱 GLM 的 Provider。 **第四步:** 点击 **`Enable`** 启用,CC Switch 自动将配置写入 OpenClaw。 **第五步:** 重启 OpenClaw: ```powershell openclaw gateway restart 

3.4 使用 CC Switch 切换模型

配置多个供应商后:

  • 主界面切换: 在 OpenClaw 选项卡下,直接点击目标供应商
    • 系统托盘切换: 右键托盘图标 → 快捷菜单选择
    • 速度测试: 点击供应商旁的测速图标,验证连通性

3.5 Proxy 代理模式(高级)

  • 统一代理入口,所有请求经本地转发
    • 自动故障转移:当前供应商异常时自动切换备用模型
    • 请求日志记录,便于排查问题
主界面点击 Proxy 按钮启动代理,默认监听 127.0.0.1:15721

步骤四:接入飞书机器人

💡 说明: 此步骤为可选,接入后可以通过飞书向 OpenClaw 下发指令,无需打开终端。

4.1 第一步:创建飞书应用

  1. 打开 飞书开放平台,使用飞书账号登录
    1. 点击 「创建企业自建应用」
    1. 填写应用名称(如「OpenClaw 助手」),上传图标,点击创建
    1. 进入 「凭证与基础信息」 页面,复制保存 App IDApp Secret

4.2 第二步:添加机器人能力

左侧导航栏 → 「添加应用能力」 → 选择 「机器人」 → 点击 添加

4.3 第三步:配置应用权限

左侧 「权限管理」「批量导入/导出权限」,粘贴以下 JSON:

["im:message","im:message.group_at_msg","im:message.group_at_msg:readonly","im:message.p2p_msg","im:message.p2p_msg:readonly","im:message:send_as_bot","im:resource","im:chat","im:chat:readonly","contact:user.base:readonly"]``` ## 4.4 第四步:在 OpenClaw 中配置飞书渠道 > ⚠️ **重要:** 事件订阅(第五步)必须在 OpenClaw 网关启动后再配置! ### 交互式配置(推荐) ```powershell openclaw channels add 

按提示操作:

步骤选择
① 选择渠道Feishu/Lark (飞书)
② 安装插件Download from npm (@openclaw/feishu)
③ 输入凭证粘贴 App SecretApp ID
④ 域名选择Feishu (feishu.cn) - China
⑤ 群聊策略Open(响应所有群聊,需 @机器人)
⑥ DM 策略Pairing (recommended)
⑦ 完成选择 Finished

手动配置文件方式

openclaw.json 中添加:

{"channels":{"feishu":{"enabled":true,"dmPolicy":"pairing","accounts":{"main":{"appId":"cli_xxxxxxxxx","appSecret":"你的 AppSecret","botName":"OpenClaw 助手"}}}}}``` ## 4.5 第五步:配置事件订阅 回到飞书开放平台 → 你的应用 → **「事件与回调」**: 1. 订阅方式选择 **「使用长连接接收事件」**(WebSocket),点击保存 2. 2. 添加事件:`im.message.receive_v1`(接收消息 v2.0) > 💡 长连接模式无需配置公网 IP,OpenClaw Gateway 主动发起 WebSocket 连接。 ## 4.6 第六步:发布应用 左侧 → **「版本管理与发布」** → 创建版本 → 提交发布 > 企业管理员审批通过后,应用即上线。 ## 4.7 第七步:启动并测试 ```powershell # 重启网关 openclaw gateway restart # 查看日志,确认飞书连接成功 openclaw logs --follow 

在飞书中搜索你的机器人名字,打开对话发送任意消息。

首次会话配对: 机器人会回复一个配对码(Pairing Code),需要在终端批准:

openclaw pairing approve feishu <CODE> 

✅ 批准后即可正常对话!

4.8 飞书高级配置(可选)

开启流式卡片输出:

{"channels":{"feishu":{"streaming":true,"blockStreaming":true}}}``` **减少 API 调用(节省配额):** ```json {"channels":{"feishu":{"typingIndicator":false,"resolveSenderNames":false}}}``` > ⚠️ **配额提醒:** OpenClaw 每 60 秒对飞书执行一次健康探测,单台机器每月消耗约 27,000 次 API 调用。飞书免费版月度配额 50,000 次,**请勿多台机器共用同一飞书 App**。 --- # 步骤五:验证与测试 ## 5.1 通过 TUI 界面验证 ```powershell openclaw tui 

发送测试消息(如「你好,请介绍一下你自己」),收到 AI 回复即说明配置成功。

5.2 通过 Web UI 验证

openclaw dashboard 

在浏览器中打开后直接对话。

5.3 飞书机器人测试

在飞书中向机器人发送消息,收到回复即表示飞书渠道配置成功。


❓ 常见问题排查

Q1:报错 401 Unauthorized

  • 检查 API Key 是否为 Coding Plan 专属 Key(以 sk-sp- 开头)
    • 确认 Base URL 是 coding.dashscope.aliyuncs.com,而非 dashscope.aliyuncs.com

Q2:模型回复内容为空

  • 确保配置中设置了 "reasoning": false

Q3:切换供应商后 OpenClaw 无反应

  • CC Switch 切换后需重启:openclaw gateway restart
    • 检查版本是否最新:openclaw --version

Q4:工具功能失效

该版本默认 profile 改为 messaging(纯聊天模式),需手动切换:

openclaw config set tools.profile full openclaw gateway restart 
Profile说明
messaging仅聊天(默认)
default默认工具集
coding编程模式
full完整工具 + 命令执行(推荐
all全部开启

Q5:飞书消息收不到

  • 确认事件订阅已选择 长连接 模式
    • 确认应用已 发布上线
    • 确认 OpenClaw Gateway 正在运行:openclaw status
    • 查看日志排查:openclaw logs --follow

📈 推荐配置组合

目标推荐搭配
性价比优先阿里百炼 Coding Plan + qwen3.5-plus
算力稳定优先火山引擎 Coding Plan + Kimi-K2.5
编程能力优先智谱 GLM Coding Plan + GLM-5

🔗 参考链接

资源链接
OpenClaw GitHubhttps://github.com/openclaw/openclaw
阿里云百炼 Coding Planhttps://www.aliyun.com/benefit/scene/codingplan
火山引擎方舟 Coding Planhttps://www.volcengine.com/docs/82379/2183190
智谱 GLM Coding Planhttps://bigmodel.cn/glm-coding
OpenClaw 飞书官方文档https://docs.openclaw.ai/zh-CN/channels/feishu
CC Switch GitHubhttps://github.com/farion1231/cc-switch

Read more

前端拖拽排序实现详解:从原理到实践 - 附完整代码

前端拖拽排序实现详解:从原理到实践 - 附完整代码

🌷 古之立大事者,不惟有超世之才,亦必有坚忍不拔之志 🎐 个人CSND主页——Micro麦可乐的博客 🐥《Docker实操教程》专栏以最新的Centos版本为基础进行Docker实操教程,入门到实战 🌺《RabbitMQ》专栏19年编写主要介绍使用JAVA开发RabbitMQ的系列教程,从基础知识到项目实战 🌸《设计模式》专栏以实际的生活场景为案例进行讲解,让大家对设计模式有一个更清晰的理解 🌛《开源项目》本专栏主要介绍目前热门的开源项目,带大家快速了解并轻松上手使用 🍎 《前端技术》专栏以实战为主介绍日常开发中前端应用的一些功能以及技巧,均附有完整的代码示例 ✨《开发技巧》本专栏包含了各种系统的设计原理以及注意事项,并分享一些日常开发的功能小技巧 💕《Jenkins实战》专栏主要介绍Jenkins+Docker的实战教程,让你快速掌握项目CI/CD,是2024年最新的实战教程 🌞《Spring Boot》专栏主要介绍我们日常工作项目中经常应用到的功能以及技巧,代码样例完整 👍《Spring Security》专栏中我们将逐步深入Spring Security的各个

前端 + agent 开发学习路线

背景:团队启动Agent项目,从零开始学习工程化AI开发 感谢ai老师写的学习指南。存档! 引言:从困惑到清晰 最近团队要启动Agent项目,我第一次接触这个概念时,只停留在“接入大模型API+优化Prompt”的浅层理解。经过大量学习和实践探索,我才发现工程化Agent开发是系统化的架构设计,而不仅仅是API调用。 这篇文章记录我从前端视角出发,探索Agent工程化开发的学习路径和实践经验。如果你也是前端/全栈开发者,想要在AI时代找到自己的定位,这篇指南应该能帮到你。 一、认知重塑:什么是工程化Agent? 1.1 我的错误认知 vs 现实 我原来的理解: Agent = 大模型API + Prompt优化 实际上的工程化Agent: Agent = 系统架构 + 可控执行 + 安全审查 + 领域适配 + 可观测性 1.2 Agent的分层架构(医疗场景示例) 你的主战场 任务分解器 工具路由器 记忆管理器 状态监控器

BK7258 x LiveKit WebRTC :从 0 到 1 的端侧适配

BK7258 x LiveKit WebRTC :从 0 到 1 的端侧适配

> 面向对象:做 AI 硬件、语音对讲、智能终端的开发者 > 关键词:BK7258、LiveKit、WebRTC、实时语音、MCP、设备控制 一、为什么是 LiveKit? 在实时语音 AI 场景里,很多团队一开始只关注“音频能不能传”,但真正落地会遇到更多问题:连接稳定性、会话管理、设备控制、Agent 协同、扩展能力等。 LiveKit 的价值就在于:它不仅是传输层,更是一个面向实时 AI Agent 的平台能力层,统一了房间、参与者、媒体轨道和数据通道能力。 官方定位可以概括为:构建 voice / video / physical AI agents 的平台。   二、BK7258

受够了网络反爬?这套 WebTop 方案,让云端 OpenClaw 像真人一样上网

受够了网络反爬?这套 WebTop 方案,让云端 OpenClaw 像真人一样上网

浏览器是网络世界的入口 对于云端部署的 OpenClaw,有一个最大的痛点,就是浏览器没有显示界面,这会对 OpenClaw 的浏览器自动化操作产生很大的影响。 刷知乎、小红书、推特,或者看 Reddit 时,传统的 Headless(无头)浏览器几乎过不了人机验证,也很容易卡在扫码登录界面。 云服务器没有显示器,你连验证码长什么样都看不到,更别提接管操作了。 那么,有没有一种优雅的姿势,让云端的 OpenClaw 拥有一个“有血有肉”的真实桌面浏览器? 就像我们在本地自己电脑上浏览网页一样自由? 既能保留 Cookie 环境,又能在遇到验证码时,让你通过浏览器随时“远程附体”进行人工接管? 我花了几天时间,反复追问 Claude、GPT、Grok、Gemini、Kimi,在我的云服务器上跑通了他们一致推荐的方案:WebTop + Tailscale,并且成功登录谷歌、知乎、小红书等平台。