openclaw配置教程(linux+局域网ollama)

openclaw配置教程(linux+局域网ollama)

openclaw配置教程(linux+局域网ollama)

一、相关网站

ollama:

  • https://github.com/ollama/ollama
  • https://ollama.com/

openclaw:

  • https://openclaw.ai/

https://docs.openclaw.ai/

在这里插入图片描述

二、前置条件

在本地局域网内的机器上已经部署了ollama

ollama模型已下载,服务已经开启,可以通过curl http://local.ollama.host:11434/v1/model 获取到模型信息就行了

三、 环境

openclaw部署在一台linux机器A上

ollama部署在另一台机器 B上

本文中机器A是centos8 yum源已换、已经安装node22+,npm换源淘宝源

四、部署

1、用npm安装,然后进入部署界面

# Recommended: global install (npm/pnpm) npminstall -g openclaw@latest # or: pnpm add -g openclaw@latest # Onboard + install the service (launchd/systemd user service)  openclaw onboard --install-daemon 

2、openclaw安装引导

workspace: ~/clawd 当然你也可以修改

channel可以先跳过,后面可以安装飞书插件

provider也先跳过,后面改配置加本地ollama

model随便选一个

skill跳过
Gateway相关默认

安装后选webUI 会出来ssh连接链接和浏览器访问链接

3、配置provider和model

nano ~/.openclaw/openclaw.json 

然后主要是models和agent要改

"models":{"providers":{"ollama":{"baseUrl":"http://local.ollama.host:11434/v1","apiKey":"ollama-local","api":"openai-completions","models":[{"id":"qwen3:30b","name":"Qwen3 30B","reasoning":true,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":32768,"maxTokens":327680},{"id":"qwen3-coder:30b","name":"Qwen3 Coder 30B","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":32768,"maxTokens":327680},{"id":"qwen2.5:14b","name":"Qwen2.5 14B","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":32768,"maxTokens":327680}]}}},"agents":{"defaults":{"model":{"primary":"ollama/qwen3-coder:30b","fallbacks":["ollama/qwen2.5:14b"]},"models":{"ollama/qwen3:30b":{},"ollama/qwen3-coder:30b":{},"ollama/qwen2.5:14b":{}},"workspace":"/root/clawd","compaction":{"mode":"safeguard"},"thinkingDefault":"off","maxConcurrent":4,"subagents":{"maxConcurrent":8}}},

现在就已经可以通过本地模型进行对话了

4、飞书安装和配置

插件安装
clawdbot plugins install @m1heng-clawd/feishu 

访问飞书开放平台:https://open.feishu.cn/app

使用您的飞书账号登录。

创建企业自建应用
  1. 点击「创建企业自建应用」按钮
  2. 填写应用信息:
  • 应用名称:您喜欢的名称
  • 应用描述

应用图标:可选,建议上传一个有辨识度的图标

在这里插入图片描述

创建飞书应用

获取应用凭证

创建应用后,进入应用详情页面:

  1. 点击左侧菜单「凭证与基础信息
  2. 记录以下信息:
  • App ID(应用 ID)
  • App Secret(应用密钥)

获取应用凭证

⚠️ 重要提示:App Secret 是敏感信息,请妥善保管,不要泄露给他人。
配置 ClawdBot

使用 clawdbot config set 命令配置飞书参数:

# 配置 App ID(替换为您的实际 App ID) clawdbot config set channels.feishu.appId "cli_xxxxxxxxxxxxxxxx" # 配置 App Secret(替换为您的实际 App Secret) clawdbot config set channels.feishu.appSecret "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" # 启用飞书通道 clawdbot config set channels.feishu.enabled true 
添加机器人到飞书

在飞书开放平台为应用添加机器人能力:

  1. 在应用管理页面,点击左侧菜单「添加应用能力
  2. 在右侧找到「机器人」卡片

点击「添加」按钮

在这里插入图片描述

添加机器人能力

配置飞书应用权限
  1. 点击左侧菜单「事件与回调
  2. 订阅方式:都选择推荐的使用长连接方式
  3. 添加需要订阅的事件:
  • im.message.receive_v1 - 接收消息
在这里插入图片描述
开通权限

具体请参考作者项目说明文档

  1. 在应用管理页面,点击左侧菜单「权限管理
  2. 搜索并开通以下权限:

必需权限:

权限范围说明
im:message消息发送和接收消息
im:message.p2p_msg:readonly私聊读取发给机器人的私聊消息
im:message.group_at_msg:readonly群聊接收群内 @机器人 的消息
im:message:send_as_bot发送以机器人身份发送消息
im:resource媒体上传和下载图片/文件
在这里插入图片描述

在权限列表中搜索权限并配置

创建版本并发布

完成权限和事件订阅配置后,必须创建版本并发布应用,否则配置不会生效!

重启 ClawdBot 服务

配置完成后,需要重启 ClawdBot 服务使配置生效:

clawdbot gateway restart 

5、消息测试

你可以通过飞书向机器人发个消息,然后他会回复

在这里插入图片描述

也可以用命令主动发一个消息

openclaw message send --channel feishu --target "chat:oc_XXXXXXX(飞书的chatid)" --message "这是一条测试" 

也可以配置cron任务

openclaw cron add --name "AI Server Monitor" --cron "cron时间配置" --session isolated --message "定时要执行的任务" --model "qwen3-coder:30b" --deliver --channel feishu --to "chat:oc_XXXXXXXXXXX" 

五、后续

可以通过clawhub去安装skill扩展能力,具体查看openclaw的doc。

Read more

【OpenClaw从入门到精通】第10篇:OpenClaw生产环境部署全攻略:性能优化+安全加固+监控运维(2026实测版)

【OpenClaw从入门到精通】第10篇:OpenClaw生产环境部署全攻略:性能优化+安全加固+监控运维(2026实测版)

摘要:本文聚焦OpenClaw从测试环境走向生产环境的核心痛点,围绕“性能优化、安全加固、监控运维”三大维度展开实操讲解。先明确生产环境硬件/系统选型标准,再通过硬件层资源管控、模型调度策略、缓存优化等手段提升响应速度(实测响应效率提升50%+);接着从网络、权限、数据三层构建安全防护体系,集成火山引擎安全方案拦截高危操作;最后落地TenacitOS可视化监控与Prometheus告警体系,配套完整故障排查清单和虚拟实战案例。全文所有配置、代码均经实测验证,兼顾新手入门实操性和进阶读者的生产级部署需求,帮助开发者真正实现OpenClaw从“能用”到“放心用”的跨越。 优质专栏欢迎订阅! 【DeepSeek深度应用】【Python高阶开发:AI自动化与数据工程实战】【YOLOv11工业级实战】 【机器视觉:C# + HALCON】【大模型微调实战:平民级微调技术全解】 【人工智能之深度学习】【AI 赋能:Python 人工智能应用实战】【数字孪生与仿真技术实战指南】 【AI工程化落地与YOLOv8/v9实战】【C#工业上位机高级应用:高并发通信+性能优化】 【Java生产级避坑指南:

By Ne0inhk
ARM Linux 驱动开发篇--- Linux 并发与竞争实验(互斥体实现 LED 设备互斥访问)--- Ubuntu20.04互斥体实验

ARM Linux 驱动开发篇--- Linux 并发与竞争实验(互斥体实现 LED 设备互斥访问)--- Ubuntu20.04互斥体实验

🎬 渡水无言:个人主页渡水无言 ❄专栏传送门: 《linux专栏》《嵌入式linux驱动开发》《linux系统移植专栏》 ❄专栏传送门: 《freertos专栏》《STM32 HAL库专栏》 ⭐️流水不争先,争的是滔滔不绝  📚博主简介:第二十届中国研究生电子设计竞赛全国二等奖 |国家奖学金 | 省级三好学生 | 省级优秀毕业生获得者 | ZEEKLOG新星杯TOP18 | 半导纵横专栏博主 | 211在读研究生 在这里主要分享自己学习的linux嵌入式领域知识;有分享错误或者不足的地方欢迎大佬指导,也欢迎各位大佬互相三连 目录 前言  一、实验基础说明 1.1、互斥体简介 1.2 本次实验设计思路 二、硬件原理分析(看过之前博客的可以忽略) 三、实验程序编写 3.1 互斥体 LED 驱动代码(mutex.c) 3.2.1、设备结构体定义(28-39

By Ne0inhk
Flutter for OpenHarmony:swagger_dart_code_generator 接口代码自动化生成的救星(OpenAPI/Swagger) 深度解析与鸿蒙适配指南

Flutter for OpenHarmony:swagger_dart_code_generator 接口代码自动化生成的救星(OpenAPI/Swagger) 深度解析与鸿蒙适配指南

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 后端工程师扔给你一个 Swagger (OpenAPI) 文档地址,你会怎么做? 1. 对着文档,手写 Dart Model 类(容易写错字段类型)。 2. 手写 Retrofit/Dio 的 API 接口定义(容易拼错 URL)。 3. 当后端修改了字段名,你对着报错修半天。 这是重复劳动的地狱。 swagger_dart_code_generator 可以将 Swagger (JSON/YAML) 文件直接转换为高质量的 Dart 代码,包括: * Model 类:支持 json_serializable,带 fromJson/

By Ne0inhk
Linux 开发别再卡壳!makefile/git/gdb 全流程实操 + 作业解析,新手看完直接用----《Hello Linux!》(5)

Linux 开发别再卡壳!makefile/git/gdb 全流程实操 + 作业解析,新手看完直接用----《Hello Linux!》(5)

文章目录 * 前言 * make/makefile * 文件的三个时间 * Linux第一个小程序-进度条 * 回车和换行 * 缓冲区 * 程序的代码展示 * git指令 * 关于gitee * Linux调试器-gdb使用 * 作业部分 前言 做 Linux 开发时,你是不是也遇到过这些 “卡脖子” 时刻?写 makefile 时,明明语法没错却报错,最后发现是依赖方法行没加 Tab;想提交代码到 gitee,记不清 git add/commit/push 的 “三板斧”,还得反复搜教程;用 gdb 调试程序,输了命令没反应,才想起编译时没加-g生成 debug 版本;甚至连写个进度条,都搞不懂\r和\n的区别,导致进度条乱跳…… 其实这些问题,

By Ne0inhk