【硬核实战】Mac mini M4 部署 OpenClaw + Ollama 本地大模型:从零到一打通飞书机器人

【硬核实战】Mac mini M4 部署 OpenClaw + Ollama 本地大模型:从零到一打通飞书机器人

文章目录

📅 前言随着 Mac mini M4 的发布,16GB 统一内存成为了本地跑 AI Agent 的绝佳土壤。本文将记录如何利用 OpenClaw 框架,配合 Ollama 运行的 Qwen 2.5 系列模型,通过 WebSocket 长连接 接入飞书,实现一个完全私有化、极速响应的个人助理。

一、 核心环境准备

硬件:Apple Mac mini M4 (16GB RAM)
系统:macOS Sequoia
模型后端:Ollama (运行 Qwen 2.5-7B)
Agent 框架:OpenClaw (v2026.3.2)
Node 版本:v24.14.0 (通过 nvm 管理)

二、 避坑指南:环境初始化在 Mac 终端部署时,首要解决的是权限与路径问题。

1. 终端常用快捷键* Control + C:强制停止当前运行的命令(如安装卡死时)。

  • sudo:以管理员身份运行。若遇到权限不足,在指令前加 sudo 即可。

2. Node.js 环境修复若遇到 zsh: command not found: openclaw,说明 NVM 路径未加载。

3. 临时加载环境

source ~/.nvm/nvm.sh && nvm use 24 

4. 永久写入配置

echo 'export NVM_DIR="$HOME/.nvm"\n[ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh"' >> ~/.zshrc && source ~/.zshrc 

三、 模型选择:M4 性能调优

针对 16GB 内存,我测试了不同参数量的模型:

  1. Qwen 2.5-14B:逻辑极强,但占用约 9GB 显存,响应稍慢。
  2. DeepSeek-R1-8B:推理能力卓越,但对 OpenClaw 的 Tools (函数调用) 兼容性一般。
  3. Qwen 2.5-7B (推荐):秒回速度,完美支持自动化工具协议,是 M4 下的最佳平衡点。

安装命令:

ollama run qwen2.5:7b 

四、 OpenClaw 配置手术 (JSON 详解)

手动编辑 ~/.openclaw/openclaw.json 是解决配置报错的最快方式。
关键配置项说明:

  • baseUrl: 必须指向 http://127.0.0.1。
  • appSecret: 飞书后台的真实密钥(非 cli_ 开头)。

tools.profile: 设置为 minimal 或 none 以减少小模型工具调用的报错。

在这里插入图片描述

最终稳定版配置参考:

{ "models": { "providers": { "custom-127-0-0-1-11434": { "baseUrl": "http://127.0.0.1", "apiKey": "ollama", "api": "openai-completions", "models": [{ "id": "qwen2.5:7b", "reasoning": false }] } } }, "agents": { "defaults": { "model": { "primary": "custom-127-0-0-1-11434/qwen2.5:7b" } } }, "channels": { "feishu": { "enabled": true, "appId": "cli_xxxxxxxx", "appSecret": "xxxxxxxxxxxx", "connectionMode": "websocket" } }, "gateway": { "port": 18789, "mode": "local" } } 

五、 飞书机器人接入:最后的临门一脚

很多同学卡在“机器人已上线但不回复”,请务必检查飞书后台:

  1. 启用机器人:在“应用功能”中确认开启。
  2. 事件订阅:必须添加 接收消息 (im.message.receive_v1) 事件。
  3. WebSocket 模式:在“事件订阅”中开启 WebSocket 模式。

版本发布:改了权限或事件后,必须创建新版本并点击“申请上线”,否则改动不生效!

在这里插入图片描述

六、 运行与调试

启动网关并观察日志:

启动 Gateway

openclaw gateway --allow-unconfigured 

第一次发消息需授权 (Pairing)

openclaw pairing approve feishu [验证码] 
在这里插入图片描述

当日志出现 [ws] ws client ready 时,你的 M4 机器人就已经正式“活”过来了。

在这里插入图片描述

💡 结语

通过 OpenClaw 与本地模型的结合,我们成功让 Mac mini M4 变成了一个 7x24 小时在线的智能助理,当然目前本地部署的7b模型还是远远不够的,后续可以使用付费token提升模型智力
Q&A:

  • Q: 为什么报错 400: deepseek does not support tools?
  • A: 推理模型暂时无法处理 OpenClaw 的 JSON 函数调用格式,建议将 tools.profile 改为 minimal 或换用 Qwen 模型。

如果你也拥有一台 M4 Mac,不妨按此指南尝试部署,开启你的本地 Agent 之旅!

Read more

前端直连模型 vs 完整 MCP:大模型驱动地图的原理与实践(技术栈Vue + Cesium + Node.js + WebSocket + MCP)

适合读者:完全新手、前端开发者、对大模型工具调用感兴趣的工程师 技术栈示例:Vue + Cesium + Node.js + WebSocket + MCP 教程目标:看懂并搭建一套“用户通过聊天输入指令,大模型决定调用工具,再驱动地图执行动作”的完整链路 目录 * 1. 这篇教程要解决什么问题 * 2. 先别写代码:先搞懂两个很像但本质不同的方案 * 2.1 方案一:前端直连模型 * 2.2 方案二:真正完整的 MCP * 2.3 它们最核心的区别 * 3. 为什么很多人一开始会把两套方案混在一起 * 4. 先建立整体认知:完整 MCP 里有哪些角色 * 5. 完整 MCP 的时序图:一句“飞到上海”是怎么穿过整个系统的 * 6.

小白入门:前端前端调用 AI 接口全流程(附具体案例)

很多前端新手在调用 AI 接口时会犯怵:不知道 “怎么怎么传参数?”“流式响应怎么处理?”“不同功能(润色 / 扩写)调用方式不一样吗?” 其实很简单!本文以 “智能文本处理工具” 为例,手把手教你从 0 到 1 调用 AI 接口,包含润色、扩写等功能,看完就能上手。 准备工作:先看懂这 3 个核心文件 在开始前,我们需要明确项目中 3 个关键文件的作用(这些文件你可能已经有了,只是不知道怎么用): * vite.config.js:配置后端接口代理,解决跨域问题 * apiClient.js:封装好的 HTTP 请求工具,帮你发请求 * aiService.js:封装好的 AI 功能函数(

前端响应式布局实现方案

前端响应式布局实现方案

一、 什么是响应式布局 响应式布局是一种面向多终端的网页设计与实现方法,其核心目标是使网页能够根据访问设备的屏幕物理尺寸、分辨率、屏幕方向及视口宽度等关键参数,自动调整页面的布局结构、元素尺寸、内容排版及交互组件的展示形态。 该方法通过统一的代码基座,确保网页在桌面端、平板端、移动端等不同终端上均能提供一致性、可用性与适配性俱佳的用户体验,无需为各终端单独设计和维护独立的网页版本,从而降低开发与迭代成本,提升跨终端访问的兼容性与稳定性。 二、 响应式布局的核心特点 1. 多终端自适应 基于设备的屏幕尺寸、分辨率、方向等参数自动调整页面结构与样式,无需为不同终端开发独立版本,实现一套代码适配全场景。 2. 弹性化元素设计 页面元素采用相对单位(如百分比、rem、vw/vh)替代固定像素值,可随容器或视口大小按比例缩放,保证在不同尺寸屏幕下的显示协调性。 3. 断点式样式切换 通过 CSS 媒体查询技术设定关键断点,在不同断点区间加载对应的样式规则,使页面布局在特定屏幕尺寸下发生合理变化,匹配设备的交互习惯。 4. 内容优先级适配 根据终端屏幕大小智能调整内容的展

Webots R2023b 完整安装配置教程

Webots R2023b 完整安装配置教程 声明:本教程由豆包、ChatGPT等AI工具协助完成。 本教程讲解如何安装 Python3、包管理器 Micromamba、必要依赖包(如 opencv-python),以及 Webots 仿真软件,并完成 Micromamba Python 环境与 MATLAB 地址的配置,适用于 Windows、macOS 双系统。 一、前置说明 1. 适用场景:需要使用 Webots 进行仿真开发,同时依赖 Python 进行脚本编写、OpenCV 进行图像处理,通过 Micromamba 管理 Python 环境,并关联 MATLAB 路径用于联合开发。 2. 版本约定(兼容性最优): * Python: