OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

关键词:OpenClaw 安装教程、GLM-5 配置方法、GLM Coding Plan 使用教程、本地 AI 助手搭建、Z.AI 接入流程

GLM Coding Plan 体验卡入口(下单立减10%金额):
https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C

在这里插入图片描述

最近在折腾一个可以本地运行的 AI Agent方案,目标很明确:

  • 在自己设备运行
  • 可接入多平台(Web / Slack / Discord)
  • 模型稳定、推理强、支持复杂 Agent 任务

测试后发现,OpenClaw + GLM Coding Plan 组合是目前比较稳定的一套方案。

本文详细讲清楚完整搭建流程,包括:

  • OpenClaw 安装
  • GLM Coding Plan 接入
  • GLM-5 模型配置
  • 故障排查
  • 高级配置(模型故障转移)

一、什么是 OpenClaw?

OpenClaw 是一个:

  • 本地运行的 AI Agent 框架
  • 支持多渠道交互
  • 支持插件 & 技能系统
  • 支持多模型 provider

简单理解:

它是一个可扩展的本地智能助手平台。

搭配 GLM Coding Plan,可以显著增强推理与代码能力。


二、准备工作

1️⃣ 获取 API Key

  1. 访问智谱开放平台
    https://open.bigmodel.cn
  2. 创建 API Key
  3. 确保已订阅 GLM Coding Plan

👉 如果你还没有开通,可以通过我的邀请链接注册,下单立减 10% 金额:

专属链接(下单立减10%):
https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C


三、安装 OpenClaw

方式一:官方脚本安装(推荐)

macOS / Linux

curl-fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell

在这里插入图片描述
iwr-useb https://openclaw.ai/install.ps1 |iex

方式二:手动全局安装

前置条件:

  • Node.js 22+
npminstall-g openclaw@latest 

或者使用 pnpm:

pnpmadd-g openclaw@latest pnpm approve-builds -g

四、初始化配置

安装完成后执行:

openclaw onboard --install-daemon 
在这里插入图片描述

如果已初始化:

openclaw config 

配置步骤说明

1️⃣ 风险提示

I understand this is powerful and inherently risky. Continue? 

选择:

Yes 

2️⃣ Onboarding mode

选择:

Quick Start 

3️⃣ Model/auth provider

选择:

Z.AI 
在这里插入图片描述

五、配置 GLM Coding Plan

当选择 Z.AI 后:

  1. 选择:
Coding-Plan-CN 
  1. 输入你的 API Key
  2. 选择模型:

推荐:

zai/glm-5 
在这里插入图片描述

⚠ 注意:

目前编程套餐支持模型:

  • GLM-5
  • GLM-4.7
  • GLM-4.6
  • GLM-4.5
  • GLM-4.5-Air
  • GLM-4.5V
  • GLM-4.6V

不要选择:

Flash FlashX 

否则可能产生额外计费。


六、启动机器人

在这里插入图片描述

配置完成后:

How do you want to hatch your bot? 

选择:

Hatch in TUI (recommended) 

此时即可在 Terminal 中与机器人交互。


七、Web UI 使用

在这里插入图片描述

终端会显示类似:

Web UI (with token) 

复制该地址在浏览器打开即可。

在这里插入图片描述

八、安装后验证

openclaw doctor openclaw status openclaw dashboard 

用途:

命令作用
doctor检查配置
status查看网关状态
dashboard浏览器打开控制台

九、高级配置:模型故障转移

编辑:

.openclaw/openclaw.json 

配置如下:

{"agents":{"defaults":{"model":{"primary":"zai/glm-5","fallbacks":["zai/glm-4.7","zai/glm-4.6","zai/glm-4.5-air"]}}}}

作用:

当主模型不可用时自动切换,保证服务稳定。


十、技能系统(Skills)

技能是包含 SKILL.md 的功能扩展包。

安装 clawhub:

npm i -g clawhub 

搜索技能:

clawhub search "postgres backups"

安装技能:

clawhub install my-skill-pack 

更新技能:

clawhub update --all

十一、插件系统

查看插件:

openclaw plugins list 

安装插件:

openclaw plugins install @openclaw/voice-call 

重启网关:

openclaw gateway restart 

十二、常见问题排查

1️⃣ API Key 无效

  • 是否订阅 GLM Coding Plan
  • 是否输入错误
  • 是否环境变量未生效

2️⃣ 模型不可用

  • 检查模型名格式
  • 是否使用支持模型

3️⃣ 网络问题

  • 检查 gateway 是否启动
  • 检查网络出口是否正常

十三、安全提示

OpenClaw 属于高权限 Agent 系统。

若暴露公网:

  • 必须配置访问控制
  • 必须阅读安全文档
  • 不建议默认开放端口

总结

如果你希望搭建:

  • 本地 AI Agent
  • 可扩展插件系统
  • 可接入强推理模型
  • 稳定可靠的编程模型方案

OpenClaw + GLM Coding Plan 是目前成熟度较高的组合。

再次附上邀请链接(下单立减10%):

👉 https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C

建议先开通 GLM Coding Plan,再进行本地部署测试。

Read more

腾讯游戏 2026 年 Q1 财报解读:AI 赋能下的新增长曲线

腾讯游戏 2026 年 Q1 财报解读:AI 赋能下的新增长曲线

引言 2026 年 3 月,腾讯控股发布 2026 年第一季度财报。游戏业务作为腾讯的现金牛,本季度表现亮眼,总收入达到 580 亿元,同比增长 22%。其中,AI 技术的深度应用成为增长的关键驱动力。 一、核心数据概览 1. 整体业绩 * 游戏总收入:580 亿元,同比增长 22% * 国内游戏:320 亿元,同比增长 12% * 海外游戏:260 亿元,同比增长 38% * 净利润:185 亿元,同比增长 35% 2. 用户数据 * 《王者荣耀》日活突破 1.5 亿,创历史新高

2026年AI工具终极对比:豆包、DeepSeek、元宝、ChatGPT、Cursor,谁才是你的最佳搭档?

豆包月活2.26亿,DeepSeek紧随其后,AI工具市场格局已定?实测告诉你真相。 前言:AI工具进入"战国时代" 2026年,AI工具市场持续火热。 QuestMobile最新数据显示,截至2026年初,国内AI原生App月活规模呈现明显的阶梯式分化: 豆包:2.26亿月活,稳居榜首 DeepSeek:1.35亿月活,强势崛起 腾讯元宝:0.41亿月活,增速惊人(全年复合增长率27.8%) 蚂蚁阿福:0.27亿月活 通义千问:0.25亿月活 豆包与DeepSeek形成"双寡头"格局,断层式领跑全行业。 但月活高不代表最好用。今天,我们从功能、场景、性价比三个维度,深度对比主流AI工具,帮你找到最适合自己的那一款。 一、国产AI助手:

从 ReAct 到 Plan-and-Execute:AI Agent 推理架构的理解与选择

从 ReAct 到 Plan-and-Execute:AI Agent 推理架构的理解与选择

最近在做一个企业办公 Agent 项目,过程中花了不少时间研究 Agent 的推理架构该怎么选。市面上最主流的两种模式——ReAct 和 Plan-and-Execute——看起来都能用,但深入了解后我发现它们的设计哲学完全不同,适用场景也差异很大。 一、先说一个最基本的问题:Agent 为什么需要"推理"? LLM 本身就能回答问题,为什么还要给它加推理框架? 因为 LLM 只会"说",不会"做"。当用户说"帮我创建一个明天截止的任务",LLM 可以生成一段漂亮的文字描述应该怎么做,但它没有手去操作数据库。Tool(或者叫 Skill)就是给 LLM 装上了手脚——它可以调用接口、查询数据、执行操作。 但问题来了:

破除各种限制,手把手教你本地部署大语言模型,打造私人AI

破除各种限制,手把手教你本地部署大语言模型,打造私人AI

随着 AI 应用的快速普及,它已经悄然融入了人们的日常生活。相信大家对 ChatGPT、豆包、元宝这些 AI 应用已经不再陌生,并且几乎离不开它们了。但是,随着这些商用 AI 的广泛应用,一些问题也随之而来。由于监管日益严格,商用大模型的“输出限制”越来越多,动不动就触发拦截;另一方面,很多人也担心自己的敏感信息(比如商业机密、个人敏感信息,或者一些不便于给别人知道的对话)被大厂收集导致隐私泄露。这就导致很多时候,虽然 AI 很智能,但在某些特定场景下却显得非常“鸡肋”。那么,在自己的电脑上本地部署一个完全受自己控制的大语言模型的需求对个人用户就变得非常迫切。本文就将一步一步教你在本地电脑上部署一个专属于你自己的AI。 第一步:认识并安装 Ollama 简单来说,Ollama 是一个开源的本地大模型运行框架。在过去,想要在自己的电脑上运行一个几十亿参数的大语言模型(LLM),你需要懂 Python、配置复杂的代码环境、处理各种让人头疼的报错。而