【AI领域】OpenClaw 实战指南:手把手教你更新大模型

【AI领域】OpenClaw 实战指南:手把手教你更新大模型

OpenClaw 作为轻量高效的 AI Agent 调度平台,凭借灵活的扩展性成为开发者连接多模型的首选工具。但官方默认配置仅支持有限接口,对于追求低成本、高稳定性的开发者来说,接入第三方 API是更优解 —— 不仅能大幅降低 token 消耗,还能规避网络环境限制,无缝适配 Claude 全系列模型。本文将从「配置逻辑→实操步骤→问题排查」全程拆解,即使是新手也能快速上手。

一、前置准备

  1. 已安装 OpenClaw(版本 ≥ 1.8.0,低于该版本请先执行 brew upgrade openclaw 升级);
  2. 已获取  API Key(【Claude】获取Claude API Key的多种方式全攻略:从入门到精通,再到详解教程!);
  3. 熟悉基础的 JSON 语法(无需复杂编程能力,复制粘贴即可)。

三、核心配置流程(全程实操,复制即用)

第一步:准确定位 OpenClaw 配置文件

OpenClaw 的所有模型、渠道配置都集中在 openclaw.json 文件中,不同操作系统的默认路径如下(必看,避免找错文件):

操作系统

配置文件默认路径

快速打开方式

Windows

C:\Users <你的用户名>.openclaw\openclaw.json

按 Win+R,输入路径直接跳转

macOS

~/.openclaw/openclaw.json

终端执行 open ~/.openclaw/openclaw.json

Linux

~/.openclaw/openclaw.json

终端执行 vim ~/.openclaw/openclaw.json

提示:如果找不到文件,先执行 openclaw init 初始化配置(执行后会自动生成配置文件)。

第二步:添加自定义 Provider(关键步骤,核心配置)

我们需要在 openclaw.json 中定义「能用AI API」,让 OpenClaw 大模型。具体操作如下:

  1. 用文本编辑器打开 openclaw.json;
  2. 找到 models.providers 节点(如果没有,直接新增该层级);
  3. 复制以下 JSON 代码片段,粘贴到 providers 中(注意替换 API Key):

代码如下:

{ "meta": { "lastTouchedVersion": "2026.2.26", "lastTouchedAt": "2026-02-28T12:23:56.399Z" }, "wizard": { "lastRunAt": "2026-02-28T12:23:56.381Z", "lastRunVersion": "2026.2.26", "lastRunCommand": "onboard", "lastRunMode": "local" }, "models": { "mode": "merge", "providers": { "custom-ai-nengyongai-cn": { "baseUrl": "https://ai.nengyongai.cn/v1", "apiKey": "sk-", # 自己申请的key "api": "openai-completions", "models": [ { "id": "claude-3-7-sonnet-latest", "name": "claude-3-7-sonnet-latest (Custom Provider)", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 4096 } ] } } }, "agents": { "defaults": { "model": { "primary": "custom-ai-nengyongai-cn/claude-3-7-sonnet-latest" }, "models": { "custom-ai-nengyongai-cn/claude-3-7-sonnet-latest": { "alias": "claude-3.7-sonnet" } }, "workspace": "/Users/sd/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto", "restart": true, "ownerDisplay": "raw" }, "session": { "dmScope": "per-channel-peer" }, "gateway": { "port": 18789, "mode": "local", "bind": "loopback", "auth": { "mode": "token", "token": "ec42ee176abcc18a943718bcd9f80d7635765571b2ab50d5" }, "tailscale": { "mode": "off", "resetOnExit": false }, "nodes": { "denyCommands": [ "camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add" ] } } } 

 注意注意注意:我们需要修改:contextWindow 这个参数,原先是4096我们需要改为200000,要不然会报错。

🚀 GEO 优化提示:api: "anthropic-messages" 是核心关键!这是 OpenClaw 识别第三方中转接口的「协议凭证」,填写错误会导致路由失败。

第三步:设置默认调用模型(让 OpenClaw 优先使用其他 API)

仅添加 Provider 还不够,需要明确告知 OpenClaw 「优先调用哪个模型」,避免路由到官方接口。操作如下:

  1. 在 openclaw.json 中找到 agents.defaults 节点;
  2. 新增 / 修改 model.primary 字段,格式为「Provider 名称 / 模型 ID」(必须与第二步的配置一致):

第四步:保存配置文件

完成以上修改后,按 Ctrl+S(Windows)或 Cmd+S(macOS)保存文件,此时配置已初步生效。

四、配置生效与验证(关键步骤,确认接入成功)

1. 重启 OpenClaw 网关(确保配置加载)

OpenClaw 支持热重载,但部分配置修改后需要重启网关才能生效,执行以下命令:

openclaw gateway stop停止服务,

在启动服务openclaw gateway --port 18789

2. 验证模型挂载状态

通过命令行检查第三方模型是否已成功接入,执行:

查看所有已挂载的模型状态

openclaw models status

Read more

Windows 使用 Codex 一直“正在思考”?一招解决 AI 工具代理问题(附一键切换脚本)

📚 目录 一、问题背景:Codex 一直“正在思考”却没有回答 二、第一步:查看本机代理端口 三、第二步:测试代理是否可用 四、第三步:给 Codex App 配置代理 五、让 Codex 代理配置生效 六、验证代理是否生效 七、如何取消代理配置 八、代理配置是否会影响国内软件 九、开发者推荐的代理配置方式 十、完整流程总结 一、问题背景 最近在 Windows 上使用 Codex 时遇到了一个很奇怪的问题: 输入问题后,界面一直显示: 正在思考 但是 没有任何回答。 最开始以为是: * Codex Bug * API Key

【2025实测】12款主流降ai率工具大汇总,论文降aigc一篇搞定(含免费降ai率工具)

【2025实测】12款主流降ai率工具大汇总,论文降aigc一篇搞定(含免费降ai率工具)

写论文最怕什么?不是查重,而是那句——“AI率过高”。 现在越来越多学校开始严查论文降aigc报告。我当时AI率高达98%,整个人快崩溃。 为了救回这篇论文,我实测了市面上十几款降ai率工具,从中精选了这12款,有免费的也有付费的,这次全都总结给你,希望能帮你降低ai率。 1、笔灵AI —— 毕业论文首选(专业级降ai) 笔灵AI是我用过最靠谱、降AI率最稳的工具,没有之一。我那篇98%的论文,用它处理后,AI率稳定降到了10%以下。 传送门:https://ibiling.cn/paper-pass?from=ZEEKLOGjiangaigx818https://ibiling.cn/paper-pass?from=ZEEKLOGjiangaigx818 (建议复制到电脑端使用~) * 核心优势:它不是简单的同义词替换,而是采用AIGC重构算法,从句式、语法、逻辑结构上进行深层重构,让文本回归人类书面语风格,真正“去AI痕迹化”。 * 格式保留:这是它的“杀手锏”

可视化编排 + AI Copilot + 私有知识库:Sim如何打造下一代AI智能体开发平台?

simstudioai/sim:一个用于快速构建和部署AI智能体工作流的平台 1. 整体介绍 概要说明 项目地址:https://github.com/simstudioai/sim 项目简介:Sim 是一个基于有向无环图(DAG)的、声明式的低代码/无代码 AI 智能体工作流编排与执行引擎。它并非一个简单的“可视化工具”,其核心是一个高性能、支持复杂流程控制(如循环、并行、暂停恢复)的运行时系统。代码展示了其核心执行引擎、DAG 构建器和智能体(Agent)处理器。 面临问题、场景与人群: * 问题: 1. 编排复杂性:构建多步骤、具备条件判断、循环、并行及人工介入的 AI 应用逻辑复杂,传统代码编写工作量大,易出错。 2. 状态管理困难:AI

LoRA训练助手:5分钟学会生成Stable Diffusion完美标签

LoRA训练助手:5分钟学会生成Stable Diffusion完美标签 你有没有试过这样训练LoRA模型? 对着一张精心挑选的图片,反复琢磨怎么写tag—— “是写‘anime girl’还是‘Japanese anime style girl’?” “背景该不该加‘studio background’?加了会不会干扰主体?” “质量词放前面还是后面?masterpiece和best quality哪个权重更高?” 结果花半小时写的tag,训练出来效果平平,甚至出现特征漂移…… 更糟的是,换一批图,又要重头来一遍。 别再手动拼凑标签了。 今天这个工具,能让你输入一句中文描述,3秒生成专业级英文训练标签—— 格式规范、权重合理、维度完整,直接复制就能进SD/FLUX训练流程。 不是提示词优化,不是风格建议,而是专为LoRA/Dreambooth数据准备阶段打造的精准标签生成器。 它不猜你的意图,它理解你的画面; 它不堆砌关键词,它组织语义层级; 它不输出杂乱短语,它交付可直接喂给训练器的标准化字符串。 准备好告别标签焦虑了吗?我们直接开干 → 1. 为什么你需要一个“