OpenClaw接入模型并基于WebUI完成智能操作

OpenClaw接入自定义模型并基于WebUI完成智能操作

背景介绍

OpenClaw(原 Clawdbot)是一个开源的 AI 代理框架,支持通过配置文件或 GUI 界面进行灵活配置。安装 OpenClaw 后,用户可以通过修改工作目录下的配置文件 openclaw.json 来接入不同的 LLM 模型提供商。

OpenClaw 支持众多主流模型提供商,包括 OpenAI、Anthropic、Moonshot AI(Kimi)、OpenRouter、Vercel AI Gateway、Amazon Bedrock 等。完整的提供商目录可参考官方文档 模型提供商快速入门

要使用自定义的提供商,需要通过 models.providers 配置进行设置。这种方式允许用户接入官方支持列表之外的其他兼容 OpenAI API 或 Anthropic 格式的模型服务。

接入配置说明

核心配置参数解析

OpenClaw 的模型配置主要分为两个部分:models 字段用于定义提供商和模型信息,agents.defaults 用于设置默认使用的模型。

以 Kimi(Moonshot AI)为例,完整的 JSON 配置如下:

{"agents":{"defaults":{"model":{"primary":"moonshot/kimi-k2.5"}}},"models":{"mode":"merge","providers":{"moonshot":{"baseUrl":"https://api.moonshot.ai/v1","apiKey":"${MOONSHOT_API_KEY}","api":"openai-completions","models":[{"id":"kimi-k2.5","name":"Kimi K2.5"}]}}}}
关键参数说明
参数位置说明
primaryagents.defaults.model必填。指定默认使用的主模型,格式为 提供商/模型ID。必须与 providers 中配置的提供商名称和模型 ID 对应
modemodels配置模式,merge 表示合并到现有配置,replace 表示完全替换
providersmodels定义模型提供商的配置集合,每个键值对代表一个提供商

重要提示providers 配置完成后,必须同步配置 agents.defaults.model.primary 字段,否则 OpenClaw 无法知道应该使用哪个模型作为默认主模型。

providers 内部参数说明
参数说明
baseUrl模型 API 的基础 URL 地址
apiKey认证密钥,支持环境变量引用格式 ${ENV_NAME} 或直接填写
apiAPI 类型,通常为 openai-completions 表示兼容 OpenAI 格式
models该提供商支持的模型列表,包含模型的 idname

接入模型 LongCat

LongCat 平台介绍

LongCat 是一个美团开发的大语言模型,同时提供了API 开放平台,提供高性能的通用对话模型和深度思考模型。目前平台支持以下模型:

模型名称API 格式描述
LongCat-Flash-ChatOpenAI/Anthropic高性能通用对话模型
LongCat-Flash-ThinkingOpenAI/Anthropic深度思考模型
LongCat-Flash-Thinking-2601OpenAI/Anthropic升级版深度思考模型
LongCat-Flash-LiteOpenAI/Anthropic高效轻量化 MoE 模型

账号注册与 API Key 获取

  1. 访问 LongCat 开放平台 注册账号
  2. 新用户注册后可获得 500 万 Token 的免费使用额度
  3. 进入 API Keys 页面 创建并获取 API Key
  4. 用量信息页面 可随时查看 Token 消耗情况

完整配置示例

以下配置参考自 LongCat OpenClaw 配置文档,展示了如何完整接入 LongCat 模型:

{"agents":{"defaults":{"model":{"primary":"longCat/LongCat-Flash-Chat"},"models":{"LongCat-Flash-Chat":{}},"workspace":"/Users/user/.openclaw/workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}},"models":{"mode":"merge","providers":{"longCat":{"baseUrl":"https://api.longcat.chat/openai","apiKey":"YOUR_API_KEY_HERE","api":"openai-completions","authHeader":true,"models":[{"id":"LongCat-Flash-Chat","name":"LongCat-Flash-Chat","reasoning":false,"input":["text"],"contextWindow":200000,"maxTokens":8192,"compat":{"maxTokensField":"max_tokens"}}]}}}}

配置说明

  • YOUR_API_KEY_HERE 替换为从 LongCat 官网申请的实际 API Key
  • contextWindow: 20000 表示支持 2 万 Token 的上下文窗口
  • maxTokens: 8192 表示单次响应最大 Token 数
  • 修改保存后配置立即生效,无需重启服务

GUI 界面配置方式

除了直接修改配置文件,也可以通过 Web 控制页面进行可视化配置:

  1. 访问 http://127.0.0.1:18789 打开 OpenClaw Web 控制页面
  2. 进入 Config → Models → Providers
  3. 添加以下配置项:
配置项
Apiopenai-completions
Api Key你的 LongCat API Key
Base Urlhttps://api.longcat.chat/openai
models - idLongCat-Flash-Chat
models - nameLongCat-Flash-Chat

效果演示

1.启动后现实AgentModel为我们自定义的LongCat-Flash

在这里插入图片描述


2.询问具备的能力与使用的模型

在这里插入图片描述


3.完成本地桌面文件查找

在这里插入图片描述

(此处补充实际使用截图)

注意事项

  1. 配置文件位置:OpenClaw 的配置文件位于 ~/.openclaw/openclaw.json
  2. WebUI 访问地址:默认访问地址为 http://127.0.0.1:18789
  3. 通信协议:OpenClaw 使用 WebSocket 进行全双工通信。如需通过 Chrome 开发者工具调试接口,可连接 ws://127.0.0.1:18789/
  4. 配置生效:修改 openclaw.json 后保存即可立即生效,无需重启 Gateway 服务

参考

Read more

一文读懂AI圈爆火的Skills:是什么、怎么用

一文读懂AI圈爆火的Skills:是什么、怎么用

大家好,我是jobleap.cn的小九。 最近AI圈,Skills彻底火了。Github上相关仓库动辄斩获上万星标,比如含50多个Claude技能的仓库、Superpowers工作流项目,均已突破18K星。这股热度,堪比2023-2024年的Prompt模板热潮——彼时大家疯狂分享Prompt,现在则扎堆交流Skills。 不少人疑惑:Skills到底是什么?和Prompt、MCP有啥区别?我花了两天整理,用直白的案例和方法,带你搞懂Skills的本质与用法。 一、Skills到底是什么?先看两个实战案例 Skills直译是“技能”,核心是「给AI智能体(Agent)用的技能包」。光说定义太抽象,分享两个我们公司的实战案例,帮你直观理解它的价值。 案例1:AI选题系统,把2-3小时工作缩成一句话指令 做内容的都懂,选题是个“海量信息筛精选”的耗时活。以前我们每天要刷遍推特、Reddit、Github、知乎、小红书等近10个平台,筛选热点、判断价值、找切入角度,整套流程要2-3小时,严重挤占核心工作时间。 去年12月,

New API 详解:新一代开源大模型统一网关与 AI 资产管理系统(深度 6000 字指南)

New API 详解:新一代开源大模型统一网关与 AI 资产管理系统(深度 6000 字指南) * 开篇:为什么我们需要一个“大模型统一网关”? * 一、项目背景与发展历程 * 二、核心特性详解(为什么 New API 比竞品强) * 1. 统一接口 + 多格式转换(最强兼容性) * 2. 智能路由与高可用 * 3. 精细计费与支付闭环(个人/企业必备) * 4. 现代化管理后台 * 5. 多语言 & 多租户 * 6. 扩展集成 * 7. 安全与可观测性 * 三、支持的模型与渠道(30+ 服务商,100+ 模型) * 四、部署安装完整教程(10 分钟上手)

人工智能:大模型分布式训练与高效调参技术实战

人工智能:大模型分布式训练与高效调参技术实战

人工智能:大模型分布式训练与高效调参技术实战 1.1 本章学习目标与重点 💡 学习目标:掌握大语言模型分布式训练的核心原理、主流框架使用方法,以及高效调参策略,能够解决大模型训练过程中的算力瓶颈和效果优化问题。 💡 学习重点:理解数据并行、张量并行、流水线并行的技术差异,掌握基于DeepSpeed的分布式训练实战,学会使用超参数搜索提升模型性能。 1.2 大模型训练的核心挑战 1.2.1 单卡训练的算力瓶颈 💡 大语言模型的参数量动辄数十亿甚至上万亿,单张GPU的显存和计算能力完全无法满足训练需求。以LLaMA-2-70B模型为例: * FP32精度下,模型参数本身就需要约280GB显存,远超单张消费级或企业级GPU的显存容量。 * 训练过程中还需要存储梯度、优化器状态等数据,实际显存占用是模型参数的3-4倍。 * 单卡训练的计算速度极慢,训练一轮可能需要数月时间,完全不具备工程可行性。 1.2.2 大模型训练的核心需求 为了高效完成大模型训练,我们需要解决以下三个核心问题: 1. 显存扩容:通过并行技术,将模型参数和计算任务分布到多张GPU上,突破

OpenClaw 全攻略:从入门到精通的 AI 智能体部署指南

OpenClaw 全攻略:从入门到精通的 AI 智能体部署指南

第一部分:认知篇 —— 什么是 OpenClaw? 1.1 定义与定位 OpenClaw(原名 Clawdbot / Moltbot)是一个本地优先、隐私至上、多渠道集成的自托管 AI 助手平台。它标志着人工智能从“对话式交互”迈入“自主行动”的第三阶段。 通俗理解: 传统 AI(如网页版 ChatGPT):你问一句,它答一句,像个顾问。 OpenClaw:你给它一个目标(如“帮我整理本月财报并发送给团队”),它能自己规划步骤、搜索数据、处理文件、发送邮件,像个员工。 1.2 核心架构:App、Gateway 与 CLI 要玩转 OpenClaw,必须理解它的三个核心组件: Gateway(网关)