OpenClaw部署与配置教程:在Mac mini上接入国产大模型与飞书

OpenClaw部署与配置教程:在Mac mini上接入国产大模型与飞书

一、准备工作

项目说明
一台Mac mini云服务器、旧电脑、树莓派也可以
飞书账号用来创建机器人
国产模型的apiopenclaw的在配置时仅显示国际的大模型,国产模型需要单独配置

二、部署OpenClaw到mac mini

2.1 快速部署

  1. 稳定版安装:在终端输入以下命令
curl -fsSL https://openclaw.ai/install.sh |bash
  1. 测试版安装(可能包含Bug)
curl -fsSL https://openclaw.ai/install.sh |bash -s -- --beta 
openclawd安装界面

2.2 同意免责声明

安装好后,将会出现一个问题:是否知晓风险,选择Yes就行。

风险提示

2.3 配置模式选择

选择“QuickStart”快速入门模式

快速入门

2.4 模型配置

  • 国际模型支持:OpenClaw默认支持多平台国际大模型

配置选择:如需接入国内大模型,请选择跳过此步骤

在这里插入图片描述

国产模型注意:该配置页面的Kimi、MiniMax、GLM需使用国际版接口

模型配置页面

2.5 聊天软件(Channel)配置

OpenClaw已支持支持很多软件,但是引导流程中显示多为国外应用

在这里插入图片描述


⚠️ 这里请大家先跳过!后续我们通过增加channel的方式添加!(详见下文)

2.6 技能包(Skill)配置

新手暂时无需添加额外技能包,选中 “No” 跳过,按回车键确认;

2.7 Hooks 配置

选中 “Memory”(启用记忆功能,支持多轮对话上下文关联,避免每次聊天都需要重复说明需求),按回车键确认;

Hooks 配置

2.8 等待部署完成

部署完成后,通过命令 openclaw --version 验证版本:

在这里插入图片描述

配置确认后,系统将自动完成部署,耗时约 30 秒 - 1 分钟,无需操作。

在这里插入图片描述

2. 9 汉化版安装(可选)

  • 如英文界面不友好,可安装汉化版:
curl -fsSL -o install.sh https://cdn.jsdelivr.net/gh/1186258278/OpenClawChineseTranslation@main/install.sh &&bash install.sh 
  • 配置方法与英文版相同

三、接入国产大模型

说实话openclaw是比较消耗token的,使用国产大模型是性价比是比较高的。接下来,就演示如何接入国内主流AI提供商。

3.1 深度求索(DeepSeek)

获取APIkey:https://platform.deepseek.com/api_keys
在apiKey处输入你的apikey即可

openclaw config set'models.providers.deepseek' --json '{ "baseUrl": "https://api.deepseek.com/v1", "apiKey": "", "api": "openai-completions", "models": [ { "id": "deepseek-chat", "name": "DeepSeek Chat" }, { "id": "deepseek-reasoner", "name": "DeepSeek Reasoner" } ] }'

设置 models.mode 为 merge

openclaw config set models.mode merge 

设置默认模型(以deepseek-chat为例)

openclaw models set deepseek/deepseek-chat 
龙猫


我这里演示的话使用的是美团的龙猫大模型。

3.2 通用配置模板

如果想要使用其他模型,可以使用以下通用模板接入任何兼容OpenAI协议的模型:

openclaw config set'models.providers.{provider_name}' --json '{ "baseUrl": "https://{baseurl}", "apiKey": "", "api": "openai-completions", "models": [ { "id": "{model_id}", "name": "{model_name}" } ] }'

设置 models.mode 为 merge

openclaw config set models.mode merge 

设置默认模型

openclaw models set{provider_name}/{model_id}

四、接入飞书

4.1 创建飞书企业自建应用

  1. 访问飞书开发者平台(https://open.feishu.cn/app?lang=zh-CN);
  2. 登录后,点击 “创建企业自建应用”;

点击上方的创建版本并发布。

在这里插入图片描述

添加机器人能力:在应用管理页左侧导航栏,找到并点击 “添加应用能力”,在弹出的列表中选择 “机器人”,点击 “添加”。

添加机器人能力

填写应用基础信息:应用名称(如 “傻妞”),选择应用图标,点击 “创建” 按钮,进入应用管理页面。

创建傻妞

4.2 获取飞书应用凭证

  1. 在飞书应用管理页,左侧导航栏找到 “凭据与基础信息” 栏目,点击进入;
  2. 保存完成后,不要关闭飞书开发者平台页面,后续配置权限还需使用。

在页面中找到 “App ID” 和 “App Secret” 两个参数,分别点击右侧 “复制” 按钮,将其保存到记事本或备忘录中;

应用凭证

4.3 添加飞书channel配置

返回终端运行下方命令

openclaw plugins install @m1heng-clawd/feishu 
在这里插入图片描述


再输入以下命令:

openclaw channels add

选择"Yes"以及“飞书”;

在这里插入图片描述


在这里插入图片描述

4.4 输入APP id 与 APP Secret

选择国内的飞书以及不要再群内响应。

在这里插入图片描述

输入上一步获取到的id与secret,回车确认;

在这里插入图片描述

4.5 完成添加流程

  1. 在终端启动网关,运行下方命令:

完成ID与Secret配置后,选择Finish即可;

在这里插入图片描述
openclaw gateway --port 18789 --verbose 
在这里插入图片描述

4.6 飞书机器人配置

飞书应用权限与事件配置
此步骤分为「事件配置」「权限配置」「应用发布」三部分,全程在飞书开发者平台操作,按顺序执行:

4.6.1 事件配置
  1. 在飞书应用管理页,左侧导航栏找到 “事件与回调” 栏目,点击进入;

回调配置:订阅方式选择 “使用长连接”,无需填写其他地址,配置自动生效。

在这里插入图片描述

添加事件:点击页面中的 “添加事件”,在弹出的事件列表中,选择 “消息与群组” 分类,勾选 “接收消息”,点击 “确定”,完成事件订阅。

在这里插入图片描述


在这里插入图片描述

事件配置:在页面中选择 “长连接”,点击 “保存”;

在这里插入图片描述


⚠️ 如果这一步提示“未建立长连接”,请检查自己的APP ID和APP Secret是否已正确配置。

4.6.2 权限配置
  1. 在飞书应用管理页,左侧导航栏找到 “权限管理” 栏目,点击进入;
  2. 粘贴以下JSON代码并导入,等待权限导入完成:

点击页面中的 “批量导入权限” 按钮,弹出权限导入窗口;

在这里插入图片描述


在这里插入图片描述
{"scopes":{"tenant":["contact:user.base:readonly", "im:chat", "im:chat:read", "im:chat:update", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:send_as_bot", "im:resource"], "user":[]}}
  1. 导入验证:页面显示 “导入成功”,且权限列表中出现上述导入的权限,即为配置完成。
4.6.3 发布应用
  1. 在飞书应用管理页,点击进入 “版本管理与发布”

填写版本号与描述后,保存并发布;

在这里插入图片描述

点击“新建版本”

在这里插入图片描述
4.6.4 验证飞书接入
  1. 启动 OpenClaw 网关
openclaw gateway 
  1. 打开飞书APP,进入工作台
  2. 找到已发布的OpenClaw应用(如 “傻妞”),

发送消息测试,如收到回复则接入成功

在这里插入图片描述

五、实用操作命令与技巧

完成基础部署后,掌握以下常用命令将显著提升您的使用效率:

5.1 核心管理命令

命令功能说明示例
openclaw tui启动OpenClaw文本用户界面(终端交互模式)直接输入即可进入交互界面
openclaw gateway restart重启网关服务(配置生效/故障恢复)修改配置后常用此命令
/new在对话中开启新会话线程在TUI或飞书对话中输入

5.2 模型管理命令

# 添加备用模型(主模型不可用时自动切换) openclaw models fallbacks add[提供商代号/模型名称]# 示例:添加OpenAI Codex作为备用 openclaw models fallbacks add openai-codex/gpt-5.2-codex # 设置默认模型 openclaw models set[提供商代号/模型名称]# 示例:将Kimi设为默认编程模型 openclaw models set kimi-code/kimi-for-coding 

六、总结

本教程详细介绍了在Mac mini上部署OpenClaw的全过程,包括基础安装、国产大模型接入以及飞书机器人集成。通过本教程,您可以搭建一个性价比较高的AI助手解决方案,结合国产大模型的经济性和飞书的便捷性,满足日常自动化需求。

说明:所有配置步骤均经过实测,请按照顺序操作。如遇问题,请检查网络连接、API密钥有效性及各步骤的配置准确性。

Read more

Flutter 三方库 shelf_web_socket 的鸿蒙化适配指南 - 实现具备高性能全双工长连接与协议协商能力的端侧服务端架构、支持分布式实时信令与多端协同实战

Flutter 三方库 shelf_web_socket 的鸿蒙化适配指南 - 实现具备高性能全双工长连接与协议协商能力的端侧服务端架构、支持分布式实时信令与多端协同实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 shelf_web_socket 的鸿蒙化适配指南 - 实现具备高性能全双工长连接与协议协商能力的端侧服务端架构、支持分布式实时信令与多端协同实战 前言 在进行 Flutter for OpenHarmony 开发时,当我们的鸿蒙应用需要充当“控制中心”角色(如控制智能家居、开启本地调试服务或实现 P2P 实时对抗脚本时),如何在端侧直接拉起一个支持 WebSocket 协议的高性能微服务端?shelf_web_socket 是针对 shelf 后端框架封装的一款官方级 WebSocket 处理器。本文将探讨如何在鸿蒙端构建极致、透明的长连接交互引擎。 一、原直观解析 / 概念介绍 1.1 基础原理 该库本质上是一个 shelf 处理函数(Handler)

【LLM】Ollama:本地大模型 WebAPI 调用实战指南

1. 为什么选择Ollama部署本地大模型 最近两年大模型技术发展迅猛,但很多开发者面临一个现实问题:公有云API调用不仅费用高昂,还存在数据隐私风险。Ollama的出现完美解决了这个痛点,它就像是你本地的模型管家,可以一键部署各种开源大模型。我去年在开发智能客服系统时就深受其益,既避免了敏感客户数据外泄,又省下了大笔API调用费用。 与传统方案相比,Ollama有三大优势:首先是安装简单,用Docker一条命令就能跑起来;其次是模型丰富,支持Llama、Mistral等主流开源模型;最重要的是API标准化,完全兼容OpenAI的接口规范。实测在16GB内存的MacBook Pro上运行7B参数的模型,响应速度可以控制在2秒以内,完全能满足大多数应用场景。 2. 五分钟快速搭建Ollama环境 2.1 准备工作就像搭积木 在开始之前,我们需要准备两个基础组件:Docker和Python环境。这里有个小技巧分享——建议使用Docker Desktop的WSL2后端(Windows用户),性能比传统虚拟机模式提升30%以上。安装完成后,记得执行以下命令验证版本: docker

Java Web 开发:JSON 基础 + @Test 测试 + Cookie/Session/ 请求处理

Java Web 开发:JSON 基础 + @Test 测试 + Cookie/Session/ 请求处理

个人主页:♡喜欢做梦 欢迎  👍点赞  ➕关注  ❤️收藏  💬评论 目录 编辑 🍍JSON的概念  🍐概念  🍐@Test注解 🍑什么是@Test? 🍑与JSON关联 🍑@Test标记的方法与main方法的区别  🍍JSON语法  🍐核心数据类型  🍐常见使用 🍑对象 🍑数组  🍑JSON字符串和Java对象的互转 🍑传递JSON 🍑获取URL中的参数 🍑上传文件:@RequestPart  🍍Cookie和Seeion  🍐Cookie 🍑什么是Cookie? 🍑Cookie的获取  🍐Session 🍑什么是Session?  🍐Cookie和Session之间的关系 🍑Session的存储 🍑Session的获取 🍍获取header 🍍JSON的概念  🍐概念 JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,易于人阅读和编写,同时也易于机器解析和生成。他基于JavaScript的一个子集,但采用了独立语言的文

【前端】win11操作系统安装完最新版本的NodeJs运行npm install报错,提示在此系统上禁止运行脚本

【前端】win11操作系统安装完最新版本的NodeJs运行npm install报错,提示在此系统上禁止运行脚本

🌹欢迎来到《小5讲堂》🌹 🌹这是《前端》系列文章,每篇文章将以博主理解的角度展开讲解。🌹 🌹温馨提示:博主能力有限,理解水平有限,若有不对之处望指正!🌹 目录 * 前言 * 解决方案 * 方法1:以管理员身份运行 PowerShell 并更改执行策略 * 方法2:只为当前会话临时允许 * 方法3:使用命令提示符 (CMD) * 方法4:绕过策略执行单个脚本 * 推荐解决方案 * Node.js 详细介绍 * 什么是 Node.js? * 核心特点 * 1. **非阻塞 I/O 和事件驱动** * 2. **单线程但高并发** * 架构组成 * 1. **V8 JavaScript 引擎** * 2. **LibUV 库** * 3. **核心模块** * 安装与使用