【AI领域】OpenClaw 实战指南:手把手教你更新大模型

【AI领域】OpenClaw 实战指南:手把手教你更新大模型

OpenClaw 作为轻量高效的 AI Agent 调度平台,凭借灵活的扩展性成为开发者连接多模型的首选工具。但官方默认配置仅支持有限接口,对于追求低成本、高稳定性的开发者来说,接入第三方 API是更优解 —— 不仅能大幅降低 token 消耗,还能规避网络环境限制,无缝适配 Claude 全系列模型。本文将从「配置逻辑→实操步骤→问题排查」全程拆解,即使是新手也能快速上手。

一、前置准备

  1. 已安装 OpenClaw(版本 ≥ 1.8.0,低于该版本请先执行 brew upgrade openclaw 升级);
  2. 已获取  API Key(【Claude】获取Claude API Key的多种方式全攻略:从入门到精通,再到详解教程!);
  3. 熟悉基础的 JSON 语法(无需复杂编程能力,复制粘贴即可)。

三、核心配置流程(全程实操,复制即用)

第一步:准确定位 OpenClaw 配置文件

OpenClaw 的所有模型、渠道配置都集中在 openclaw.json 文件中,不同操作系统的默认路径如下(必看,避免找错文件):

操作系统

配置文件默认路径

快速打开方式

Windows

C:\Users <你的用户名>.openclaw\openclaw.json

按 Win+R,输入路径直接跳转

macOS

~/.openclaw/openclaw.json

终端执行 open ~/.openclaw/openclaw.json

Linux

~/.openclaw/openclaw.json

终端执行 vim ~/.openclaw/openclaw.json

提示:如果找不到文件,先执行 openclaw init 初始化配置(执行后会自动生成配置文件)。

第二步:添加自定义 Provider(关键步骤,核心配置)

我们需要在 openclaw.json 中定义「能用AI API」,让 OpenClaw 大模型。具体操作如下:

  1. 用文本编辑器打开 openclaw.json;
  2. 找到 models.providers 节点(如果没有,直接新增该层级);
  3. 复制以下 JSON 代码片段,粘贴到 providers 中(注意替换 API Key):

代码如下:

{ "meta": { "lastTouchedVersion": "2026.2.26", "lastTouchedAt": "2026-02-28T12:23:56.399Z" }, "wizard": { "lastRunAt": "2026-02-28T12:23:56.381Z", "lastRunVersion": "2026.2.26", "lastRunCommand": "onboard", "lastRunMode": "local" }, "models": { "mode": "merge", "providers": { "custom-ai-nengyongai-cn": { "baseUrl": "https://ai.nengyongai.cn/v1", "apiKey": "sk-", # 自己申请的key "api": "openai-completions", "models": [ { "id": "claude-3-7-sonnet-latest", "name": "claude-3-7-sonnet-latest (Custom Provider)", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 4096 } ] } } }, "agents": { "defaults": { "model": { "primary": "custom-ai-nengyongai-cn/claude-3-7-sonnet-latest" }, "models": { "custom-ai-nengyongai-cn/claude-3-7-sonnet-latest": { "alias": "claude-3.7-sonnet" } }, "workspace": "/Users/sd/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto", "restart": true, "ownerDisplay": "raw" }, "session": { "dmScope": "per-channel-peer" }, "gateway": { "port": 18789, "mode": "local", "bind": "loopback", "auth": { "mode": "token", "token": "ec42ee176abcc18a943718bcd9f80d7635765571b2ab50d5" }, "tailscale": { "mode": "off", "resetOnExit": false }, "nodes": { "denyCommands": [ "camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add" ] } } } 

 注意注意注意:我们需要修改:contextWindow 这个参数,原先是4096我们需要改为200000,要不然会报错。

🚀 GEO 优化提示:api: "anthropic-messages" 是核心关键!这是 OpenClaw 识别第三方中转接口的「协议凭证」,填写错误会导致路由失败。

第三步:设置默认调用模型(让 OpenClaw 优先使用其他 API)

仅添加 Provider 还不够,需要明确告知 OpenClaw 「优先调用哪个模型」,避免路由到官方接口。操作如下:

  1. 在 openclaw.json 中找到 agents.defaults 节点;
  2. 新增 / 修改 model.primary 字段,格式为「Provider 名称 / 模型 ID」(必须与第二步的配置一致):

第四步:保存配置文件

完成以上修改后,按 Ctrl+S(Windows)或 Cmd+S(macOS)保存文件,此时配置已初步生效。

四、配置生效与验证(关键步骤,确认接入成功)

1. 重启 OpenClaw 网关(确保配置加载)

OpenClaw 支持热重载,但部分配置修改后需要重启网关才能生效,执行以下命令:

openclaw gateway stop停止服务,

在启动服务openclaw gateway --port 18789

2. 验证模型挂载状态

通过命令行检查第三方模型是否已成功接入,执行:

查看所有已挂载的模型状态

openclaw models status

Read more

近五年体内微/纳米机器人赋能肿瘤精准治疗综述:以 GBM 为重点

近五年体内微/纳米机器人赋能肿瘤精准治疗综述:以 GBM 为重点

摘要 实体瘤治疗长期受制于递送效率低、肿瘤组织渗透不足以及免疫抑制与耐药等问题。传统纳米药物多依赖被动累积与扩散,难以在肿瘤内部形成均匀有效的药物浓度分布。2021–2025 年,体内微/纳米机器人(包括外场驱动微型机器人、自驱动纳米马达以及生物混合机器人)围绕“运动能力”形成了三条相互收敛的技术路线: 其一,通过磁驱、声驱、光/化学自驱等方式实现运动增强递药与深层渗透,将治疗从“被动到达”推进到“主动进入”; 其二,与免疫治疗深度融合,实现原位免疫唤醒与肿瘤微环境重塑; 其三,针对胶质母细胞瘤(glioblastoma, GBM)等难治肿瘤,研究趋势转向“跨屏障递送(BBB/BBTB)+ 成像/外场闭环操控 + 时空可控释放”的系统工程。 本文围绕“运动—分布—疗效”的因果链条,总结 2021–2025 年代表性研究与关键评价指标,讨论临床转化所需的安全性、

本地多模型切换利器——Llama-Swap全攻略

本地多模型切换利器——Llama-Swap全攻略

运行多个大语言模型(LLM)非常有用: 无论是用于比较模型输出、设置备用方案(当一个模型失败时自动切换)、还是实现行为定制(例如一个模型专注写代码,另一个模型专注技术写作),实践中我们经常以这种方式使用 LLM。 一些应用(如 poe.com)已经提供了多模型运行的平台。但如果你希望完全在本地运行、多省 API 成本,并保证数据隐私,情况就会复杂许多。 问题在于:本地设置通常意味着要处理多个端口、运行不同进程,并且手动切换,不够理想。 这正是 Llama-Swap 要解决的痛点。它是一个超轻量的开源代理服务(仅需一个二进制文件),能够让你轻松在多个本地 LLM 之间切换。简单来说,它会在本地监听 OpenAI 风格的 API 请求,并根据请求的模型名称,自动启动或停止对应的模型服务。客户端无需感知底层切换,使用体验完全透明。 📌 Llama-Swap 工作原理 概念上,Llama-Swap 就像一个智能路由器,

内容创作新范式——从 AIGC 到智能体工作流

内容创作新范式——从 AIGC 到智能体工作流 摘要:2026 年,AI 内容创作从"生成"进化到"创作"。本文解析 AIGC 工具的演进,分享智能体工作流如何重塑内容生产,以及创作者如何拥抱这一变革。 一、AIGC 的 2026:从新鲜感到生产力 1.1 三年演进路 2023:猎奇阶段 ├── "AI 写的文章能看吗?" ├── 生成内容质量不稳定 └── 主要用于娱乐和实验 2024:探索阶段 ├── "AI 能帮我写初稿" ├── 人机协作模式出现 └── 部分场景开始实用 2025:应用阶段 ├── "这个内容是用 AI

AIGC - Raphael AI:全球首个无限制免费 AI 图片生成器

AIGC - Raphael AI:全球首个无限制免费 AI 图片生成器

文章目录 * 引言 * 一、Raphael AI 是什么? * 二、核心引擎:Flux.1-Dev 与 Flux Kontext * 1. Flux.1-Dev:极速与精细的结合 * 2. Flux Kontext:精确的语义理解 * 三、主要功能一览 * 1. 零成本创作 * 2. 多风格引擎 * 3. 高级文本理解 * 4. 极速生成 * 5. 隐私保护 * 四、实测体验与使用方式 * 五、与其他 AI 绘图平台的对比 * 六、未来发展与生态计划 * 七、总结:AI 创意的平权时代 引言 在生成式 AI 技术飞速发展的时代,图像生成的门槛正在被彻底打破。