【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录

写在前面

OpenClaw 是什么?

蓝耘平台是什么?与 OpenClaw 的关系

步骤一:极速安装,一行命令搞定环境

步骤二:启动向导,初始化配置参数

步骤 三:注入灵魂,获取蓝耘MaaS API Key

步骤四:打通渠道,搭建飞书长连接桥梁

步骤五:引擎点火,启动核心网关服务

步骤六:仪表盘检阅,后台状态可视化

步骤七:实战演练,验证智能交互效果

快速排错提示

写在末尾


写在前面

本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。

内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,适合个人开发者或小团队搭建自己的“数字员工”。

建议阅读方式:

  • 按顺序一步步操作,不要跳过“首次配置向导”。
  • 遇到报错时,先对照文末「快速排错提示」处理,再继续后续步骤。

OpenClaw 是什么?

OpenClaw(原名 Clawdbot / Moltbot)是一个开源的个人 AI 智能体平台,核心定位是“能真正干活的 AI 助手”,而不是简单的聊天机器人。它运行在你的本地电脑或服务器上,通过 WhatsApp、Telegram、Discord、飞书、钉钉等聊天工具接收指令,可以直接操作文件系统、运行命令、控制浏览器、设置定时任务等。

可以把它理解成:

  • 一个“AI 管家”或“数字员工”,有长期记忆、能记住你的偏好和历史对话;
  • 一个多渠道网关,让同一个 AI 大脑同时服务飞书、钉钉、Telegram、WhatsApp 等多个平台;
  • 一个编排框架,本身不自带模型推理能力,需要连接外部大模型(如阿里云百炼、蓝耘 MaaS、Claude、GPT 等)。

典型应用场景包括:

  • 办公自动化:整理邮件、同步日程、处理文档;
  • 本地文件管理:归类资料、批量处理文件;
  • 浏览器自动化:打开网页、抓取数据、填写表单;
  • 多平台客服 / 运营助手:通过飞书、钉钉等统一接待用户。

蓝耘平台是什么?与 OpenClaw 的关系

蓝耘是一家面向 AI 算力与模型服务的平台,其“蓝耘元生代 MaaS 平台”(Model as a Service)提供开箱即用的大模型服务,包括 DeepSeek、通义千问(Qwen)等热门模型,支持 OpenAI 兼容的 API 接口。

蓝耘平台的核心特点:

  • 模型即服务:DeepSeek-V3.x、Qwen 系列等多模态、文本模型统一通过 API 暴露,无需自己训练或部署推理引擎;
  • 低门槛体验:新用户注册可获得大量免费 Token 额度,适合个人开发者和小项目;
  • 兼容 OpenAI 协议:只需将 base_url 指向蓝耘的网关,即可无缝接入各类兼容 OpenAI 的应用。

与 OpenClaw 的关系:

  • OpenClaw 作为“智能体编排框架”,本身不包含模型推理能力,需要连接外部大模型;
  • 蓝耘 MaaS 提供兼容 OpenAI 协议的模型 API,OpenClaw 可以通过配置将请求重定向到蓝耘节点,从而使用 DeepSeek、Qwen 等模型作为“大脑”;
  • 简单理解:
    • OpenClaw = “指挥中心 + 执行层”(多渠道、记忆、工具调用)
    • 蓝耘 MaaS = “算力 + 模型层”(提供大模型推理服务)

本教程以“蓝耘MaaS”为例,如果你后续希望切换其他模型服务商,只需在 OpenClaw 中修改模型配置(API 地址、模型名、API Key)即可。

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,通过飞书长连接模式实现 AI 机器人。

步骤一:极速安装,一行命令搞定环境

  1. 打开 PowerShell。
  2. 执行以下命令一键安装: 在 PowerShell 中运行
iwr -useb https://clawd.org.cn/install.ps1 | iex

步骤二:启动向导,初始化配置参数

  1. 重新打开一个 CMD 。
  2. 输入命令启动配置向导:
openclaw-cn onboard
  1. 向导启动后:
  • 第一步选择继续(YES)。

步骤 三:注入灵魂,获取蓝耘MaaS API Key

  • 进入左侧菜单「密钥管理」→「创建 API Key」。
  • 创建完成后复制 Key(通常以 sk- 或 bk- 开头)。
  • 返回 onboard 向导,在对应位置粘贴 Key 并继续。
蓝耘福利大放送,这就是选择的理由

步骤四:打通渠道,搭建飞书长连接桥梁

  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台。
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的 机器人App ID 和 App Secret,继续下一步直到向导完成。

步骤五:引擎点火,启动核心网关服务

配置完成后,启动 OpenClaw 的网关:

启动openclaw网关 openclaw-cn gateway

步骤六:仪表盘检阅,后台状态可视化

  1. 浏览器打开命令中提示的网址。
  2. 登录 OpenClaw 管理后台。
  3. 检查事件订阅是否为长连接模式。
  4. 确认已添加的事件列表完整。

步骤七:实战演练,验证智能交互效果

  • 发送消息给机器人(如 @机器人 你好)。
  • 如果机器人正常回复,则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认蓝耘MaaS平台 API Key 有效、配额充足。

写在末尾

到这里,你已经完成了一套“本地部署 + 蓝耘MaaS模型 + 飞书长连接机器人”的完整搭建。这套环境可以作为你后续各种 AI 自动化实验的基础:

  • 可以继续给机器人添加技能(技能插件),扩展文件处理、浏览器自动化等能力;
  • 可以尝试接入蓝耘MaaS平台的其他模型,对比不同模型的效果和成本;
  • 也可以把这套机器人接入更多业务场景,比如自动客服、内部知识助手、运营日报等。

如果在实际操作中遇到问题,建议优先:

  1. 回头检查每一步的配置(App ID / App Secret / API Key / 事件订阅);
  2. 查看 OpenClaw 官方文档和社区教程,更新到最新版本;
  3. 在飞书开放平台中确认事件订阅是否正常、是否有报错日志。

祝你玩得顺手,把 OpenClaw 打造成真正属于你的“数字员工”。

Read more

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

LLaMA Factory 从入门到精通,一篇讲完

LLaMA Factory 从入门到精通,一篇讲完

目录 一、LLaMA-Factory 简介 二、安装部署 三、数据微调 1、数据集的建立 2、数据集格式 3、模型参数 4、开始运行 5、导出模型 四、webui 评估预测与对话 导出 五、SFT 训练 命令行 六、LoRA 合并 合并 量化 七、推理 原始模型推理配置 微调模型推理配置 多模态模型 批量推理 八、评估 通用能力评估 NLG 评估 评估相关参数 一、LLaMA-Factory 简介 LLaMA Factory 是一个简单易用且高效的大型语言模型(Large

万字长文:重点区域低空安全防御系统(反无人机)深度实战方案 | 从0到1构建立体安防体系(WORD)

万字长文:重点区域低空安全防御系统(反无人机)深度实战方案 | 从0到1构建立体安防体系(WORD)

摘要:随着低空经济爆发式增长,无人机"黑飞"已成为国家重点区域安防的重大威胁。本文基于真实政务项目案例,深度解析一套覆盖"探测-识别-定位-反制-溯源"全链条的低空安全防御系统建设方案。全文8000+字,涵盖TDOA无源定位、相控阵雷达、导航诱骗等核心技术,以及等保2.0合规、电磁频谱安全等实施细节,为安防系统集成商、智慧城市建设者提供保姆级技术参考。 一、项目背景与战略价值:低空经济背后的安全缺口 1.1 低空经济崛起的"双刃剑"效应 近年来,随着《"十四五"数字经济发展规划》的深入推进,低空经济已被纳入国家战略性新兴产业序列。无人机在物流配送、电力巡检、应急救援、城市测绘等领域的应用呈现爆发式增长。据统计,截至2025年初,我国民用无人机保有量已突破500万架,年飞行时长超过数千万小时。 然而,

Chat took too long to get ready.Please ensure...<VSCode\Copilot>

Chat took too long to get ready.Please ensure...<VSCode\Copilot>

在VScode里面,应用Copilot提问,无法解决问题,该怎么解决呢? 1、在vscode里面,按键  ctrl + shift + p,输入setting,即看到setting.json文件 2、在setting.json文件中添加下面两行   "github.copilot.nextEditSuggestions.enabled": true,   "chat.extensionUnification.enabled":false, 参考图片25、26行 3、保存,重启vscode 4、重启后,点击vscode左下角人头像,查看是否有让授权Copilot的,如果有点击一下授权,解决!!! 如果这样无法解决,建议检查账号是不是不能使用Copilot功能了