OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

OpenClaw 接入 GLM-5 教程:本地 AI 助手完整搭建指南

关键词:OpenClaw 安装教程、GLM-5 配置方法、GLM Coding Plan 使用教程、本地 AI 助手搭建、Z.AI 接入流程

GLM Coding Plan 体验卡入口(下单立减10%金额):
https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C

在这里插入图片描述

最近在折腾一个可以本地运行的 AI Agent方案,目标很明确:

  • 在自己设备运行
  • 可接入多平台(Web / Slack / Discord)
  • 模型稳定、推理强、支持复杂 Agent 任务

测试后发现,OpenClaw + GLM Coding Plan 组合是目前比较稳定的一套方案。

本文详细讲清楚完整搭建流程,包括:

  • OpenClaw 安装
  • GLM Coding Plan 接入
  • GLM-5 模型配置
  • 故障排查
  • 高级配置(模型故障转移)

一、什么是 OpenClaw?

OpenClaw 是一个:

  • 本地运行的 AI Agent 框架
  • 支持多渠道交互
  • 支持插件 & 技能系统
  • 支持多模型 provider

简单理解:

它是一个可扩展的本地智能助手平台。

搭配 GLM Coding Plan,可以显著增强推理与代码能力。


二、准备工作

1️⃣ 获取 API Key

  1. 访问智谱开放平台
    https://open.bigmodel.cn
  2. 创建 API Key
  3. 确保已订阅 GLM Coding Plan

👉 如果你还没有开通,可以通过我的邀请链接注册,下单立减 10% 金额:

专属链接(下单立减10%):
https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C


三、安装 OpenClaw

方式一:官方脚本安装(推荐)

macOS / Linux

curl-fsSL https://openclaw.ai/install.sh |bash

Windows PowerShell

在这里插入图片描述
iwr-useb https://openclaw.ai/install.ps1 |iex

方式二:手动全局安装

前置条件:

  • Node.js 22+
npminstall-g openclaw@latest 

或者使用 pnpm:

pnpmadd-g openclaw@latest pnpm approve-builds -g

四、初始化配置

安装完成后执行:

openclaw onboard --install-daemon 
在这里插入图片描述

如果已初始化:

openclaw config 

配置步骤说明

1️⃣ 风险提示

I understand this is powerful and inherently risky. Continue? 

选择:

Yes 

2️⃣ Onboarding mode

选择:

Quick Start 

3️⃣ Model/auth provider

选择:

Z.AI 
在这里插入图片描述

五、配置 GLM Coding Plan

当选择 Z.AI 后:

  1. 选择:
Coding-Plan-CN 
  1. 输入你的 API Key
  2. 选择模型:

推荐:

zai/glm-5 
在这里插入图片描述

⚠ 注意:

目前编程套餐支持模型:

  • GLM-5
  • GLM-4.7
  • GLM-4.6
  • GLM-4.5
  • GLM-4.5-Air
  • GLM-4.5V
  • GLM-4.6V

不要选择:

Flash FlashX 

否则可能产生额外计费。


六、启动机器人

在这里插入图片描述

配置完成后:

How do you want to hatch your bot? 

选择:

Hatch in TUI (recommended) 

此时即可在 Terminal 中与机器人交互。


七、Web UI 使用

在这里插入图片描述

终端会显示类似:

Web UI (with token) 

复制该地址在浏览器打开即可。

在这里插入图片描述

八、安装后验证

openclaw doctor openclaw status openclaw dashboard 

用途:

命令作用
doctor检查配置
status查看网关状态
dashboard浏览器打开控制台

九、高级配置:模型故障转移

编辑:

.openclaw/openclaw.json 

配置如下:

{"agents":{"defaults":{"model":{"primary":"zai/glm-5","fallbacks":["zai/glm-4.7","zai/glm-4.6","zai/glm-4.5-air"]}}}}

作用:

当主模型不可用时自动切换,保证服务稳定。


十、技能系统(Skills)

技能是包含 SKILL.md 的功能扩展包。

安装 clawhub:

npm i -g clawhub 

搜索技能:

clawhub search "postgres backups"

安装技能:

clawhub install my-skill-pack 

更新技能:

clawhub update --all

十一、插件系统

查看插件:

openclaw plugins list 

安装插件:

openclaw plugins install @openclaw/voice-call 

重启网关:

openclaw gateway restart 

十二、常见问题排查

1️⃣ API Key 无效

  • 是否订阅 GLM Coding Plan
  • 是否输入错误
  • 是否环境变量未生效

2️⃣ 模型不可用

  • 检查模型名格式
  • 是否使用支持模型

3️⃣ 网络问题

  • 检查 gateway 是否启动
  • 检查网络出口是否正常

十三、安全提示

OpenClaw 属于高权限 Agent 系统。

若暴露公网:

  • 必须配置访问控制
  • 必须阅读安全文档
  • 不建议默认开放端口

总结

如果你希望搭建:

  • 本地 AI Agent
  • 可扩展插件系统
  • 可接入强推理模型
  • 稳定可靠的编程模型方案

OpenClaw + GLM Coding Plan 是目前成熟度较高的组合。

再次附上邀请链接(下单立减10%):

👉 https://www.bigmodel.cn/glm-coding?ic=9FFMZZ9M7C

建议先开通 GLM Coding Plan,再进行本地部署测试。

Read more

AI入门系列:AI新手必看:人工智能发展历程与现状分析

AI入门系列:AI新手必看:人工智能发展历程与现状分析

写在前面:为什么AI发展历史很重要? 记得刚开始学习AI的时候,我总觉得历史这种东西很枯燥,不如直接学习最新的技术来得实在。但后来我发现,了解AI的发展历程,就像了解一个人的成长经历一样,能帮助我们更好地理解现在的AI是如何走到今天的,也能帮助我们预测未来可能的发展方向。 有一次,我和一位从事AI研究多年的教授聊天,他告诉我:"现在的学生总想直接学习深度学习,但如果不了解符号主义AI的兴衰,就无法理解为什么深度学习会成功,也无法预见它可能面临的挑战。"这句话让我深受启发。 所以,在这篇文章中,我想和大家一起回顾一下AI的发展历程,不是为了考试背诵那些枯燥的年代和事件,而是为了让我们能够站在历史的高度,更好地理解现在的AI技术,以及它在我们生活中的应用。 人工智能的诞生:一个充满想象力的开始 说起AI的诞生,我们不得不提到1956年的达特茅斯会议。这次会议被公认为人工智能学科的诞生标志。 想象一下那个场景:一群来自不同领域的顶尖科学家,包括约翰·麦卡锡、马文·明斯基、克劳德·香农等,聚集在一起,讨论着一个看似疯狂的问题:"机器能思考吗?"他们相信,只要给机器输入足够多的规则

技术拆解:P2P组网如何一键远程AI

技术拆解:P2P组网如何一键远程AI

文章目录 * **远程访问AI服务的核心是什么?** * **从暴露服务到连接设备** * **核心组件与交互解析** * **安全架构深度剖析** * **一键安装脚本的技术实现** * **# Windows** * **#macOS** * **#Linux** * **与AI工作流的结合实践** 远程访问AI服务的核心是什么? 你自己在电脑或者服务器上装了AI服务,比如大语言模型、Stable Diffusion这些,但是有个头疼的事儿:外面的人或者你在别的地方,怎么既安全又方便地连上这些本地的服务?以前的办法要么得有公网IP,还得敲一堆命令行用SSH隧道,要么就是直接开端口映射,等于把服务直接晾在公网上,太不安全了。 今天咱们就好好说说一种靠P2P虚拟组网的办法,还拿个叫节点小宝的工具举例子,看看它怎么做到不用改啥东西,点一下就装好,还能建个加密的通道,实现那种“服务藏得好好的,想连就能直接连上”的安全远程访问方式。 从暴露服务到连接设备 核心思路转变在于:不再尝试将内网服务端口暴露到公网(一个危险的攻击面),而是将外部访问设

人工智能:自然语言处理在教育领域的应用与实战

人工智能:自然语言处理在教育领域的应用与实战

人工智能:自然语言处理在教育领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在教育领域的应用场景和重要性 💡 掌握教育领域NLP应用的核心技术(如智能问答、作业批改、个性化学习) 💡 学会使用前沿模型(如BERT、GPT-3)进行教育文本分析 💡 理解教育领域的特殊挑战(如多学科知识、学生认知差异、数据隐私) 💡 通过实战项目,开发一个智能问答系统应用 重点内容 * 教育领域NLP应用的主要场景 * 核心技术(智能问答、作业批改、个性化学习) * 前沿模型(BERT、GPT-3)在教育领域的使用 * 教育领域的特殊挑战 * 实战项目:智能问答系统应用开发 一、教育领域NLP应用的主要场景 1.1 智能问答 1.1.1 智能问答的基本概念 智能问答是通过自然语言与用户进行交互,回答用户问题的程序。在教育领域,智能问答的主要应用场景包括: * 课程问答:回答课程相关的问题(如“什么是机器学习”

AI时代人人都是产品经理:落地流程:AI 核心功能,从需求到上线的全流程管控方法

AI时代人人都是产品经理:落地流程:AI 核心功能,从需求到上线的全流程管控方法

AI的普及正在重构产品经理的工作模式——不再依赖传统的跨部门协作瓶颈,AI可以成为产品经理的"全职助手",覆盖需求分析、原型设计、开发协同、测试验证全流程。本文将拆解AI时代产品核心功能从0到1落地的完整管控方法,让你用AI能力提升300%的落地效率。 一、需求阶段:AI辅助的需求挖掘与标准化 需求是产品的起点,AI可以帮你从海量信息中精准定位用户真实需求,避免"伪需求"浪费资源。 1. 需求挖掘:AI辅助用户洞察 传统需求调研依赖问卷、访谈,效率低且样本有限。AI可以通过以下方式快速完成用户洞察: * 结构化处理非结构化数据:用AI分析用户在社交媒体、客服对话、应用评论中的碎片化反馈,自动提炼高频需求点 * 需求优先级排序:基于KANO模型,AI可以自动将需求划分为基础型、期望型、兴奋型、无差异型四类,输出优先级列表 实战工具与示例: 使用GPT-4+Python脚本批量处理应用商店评论: import openai import pandas as