OpenClaw接入模型并基于WebUI完成智能操作

OpenClaw接入自定义模型并基于WebUI完成智能操作

背景介绍

OpenClaw(原 Clawdbot)是一个开源的 AI 代理框架,支持通过配置文件或 GUI 界面进行灵活配置。安装 OpenClaw 后,用户可以通过修改工作目录下的配置文件 openclaw.json 来接入不同的 LLM 模型提供商。

OpenClaw 支持众多主流模型提供商,包括 OpenAI、Anthropic、Moonshot AI(Kimi)、OpenRouter、Vercel AI Gateway、Amazon Bedrock 等。完整的提供商目录可参考官方文档 模型提供商快速入门

要使用自定义的提供商,需要通过 models.providers 配置进行设置。这种方式允许用户接入官方支持列表之外的其他兼容 OpenAI API 或 Anthropic 格式的模型服务。

接入配置说明

核心配置参数解析

OpenClaw 的模型配置主要分为两个部分:models 字段用于定义提供商和模型信息,agents.defaults 用于设置默认使用的模型。

以 Kimi(Moonshot AI)为例,完整的 JSON 配置如下:

{"agents":{"defaults":{"model":{"primary":"moonshot/kimi-k2.5"}}},"models":{"mode":"merge","providers":{"moonshot":{"baseUrl":"https://api.moonshot.ai/v1","apiKey":"${MOONSHOT_API_KEY}","api":"openai-completions","models":[{"id":"kimi-k2.5","name":"Kimi K2.5"}]}}}}
关键参数说明
参数位置说明
primaryagents.defaults.model必填。指定默认使用的主模型,格式为 提供商/模型ID。必须与 providers 中配置的提供商名称和模型 ID 对应
modemodels配置模式,merge 表示合并到现有配置,replace 表示完全替换
providersmodels定义模型提供商的配置集合,每个键值对代表一个提供商

重要提示providers 配置完成后,必须同步配置 agents.defaults.model.primary 字段,否则 OpenClaw 无法知道应该使用哪个模型作为默认主模型。

providers 内部参数说明
参数说明
baseUrl模型 API 的基础 URL 地址
apiKey认证密钥,支持环境变量引用格式 ${ENV_NAME} 或直接填写
apiAPI 类型,通常为 openai-completions 表示兼容 OpenAI 格式
models该提供商支持的模型列表,包含模型的 idname

接入模型 LongCat

LongCat 平台介绍

LongCat 是一个美团开发的大语言模型,同时提供了API 开放平台,提供高性能的通用对话模型和深度思考模型。目前平台支持以下模型:

模型名称API 格式描述
LongCat-Flash-ChatOpenAI/Anthropic高性能通用对话模型
LongCat-Flash-ThinkingOpenAI/Anthropic深度思考模型
LongCat-Flash-Thinking-2601OpenAI/Anthropic升级版深度思考模型
LongCat-Flash-LiteOpenAI/Anthropic高效轻量化 MoE 模型

账号注册与 API Key 获取

  1. 访问 LongCat 开放平台 注册账号
  2. 新用户注册后可获得 500 万 Token 的免费使用额度
  3. 进入 API Keys 页面 创建并获取 API Key
  4. 用量信息页面 可随时查看 Token 消耗情况

完整配置示例

以下配置参考自 LongCat OpenClaw 配置文档,展示了如何完整接入 LongCat 模型:

{"agents":{"defaults":{"model":{"primary":"longCat/LongCat-Flash-Chat"},"models":{"LongCat-Flash-Chat":{}},"workspace":"/Users/user/.openclaw/workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}},"models":{"mode":"merge","providers":{"longCat":{"baseUrl":"https://api.longcat.chat/openai","apiKey":"YOUR_API_KEY_HERE","api":"openai-completions","authHeader":true,"models":[{"id":"LongCat-Flash-Chat","name":"LongCat-Flash-Chat","reasoning":false,"input":["text"],"contextWindow":200000,"maxTokens":8192,"compat":{"maxTokensField":"max_tokens"}}]}}}}

配置说明

  • YOUR_API_KEY_HERE 替换为从 LongCat 官网申请的实际 API Key
  • contextWindow: 20000 表示支持 2 万 Token 的上下文窗口
  • maxTokens: 8192 表示单次响应最大 Token 数
  • 修改保存后配置立即生效,无需重启服务

GUI 界面配置方式

除了直接修改配置文件,也可以通过 Web 控制页面进行可视化配置:

  1. 访问 http://127.0.0.1:18789 打开 OpenClaw Web 控制页面
  2. 进入 Config → Models → Providers
  3. 添加以下配置项:
配置项
Apiopenai-completions
Api Key你的 LongCat API Key
Base Urlhttps://api.longcat.chat/openai
models - idLongCat-Flash-Chat
models - nameLongCat-Flash-Chat

效果演示

1.启动后现实AgentModel为我们自定义的LongCat-Flash

在这里插入图片描述


2.询问具备的能力与使用的模型

在这里插入图片描述


3.完成本地桌面文件查找

在这里插入图片描述

(此处补充实际使用截图)

注意事项

  1. 配置文件位置:OpenClaw 的配置文件位于 ~/.openclaw/openclaw.json
  2. WebUI 访问地址:默认访问地址为 http://127.0.0.1:18789
  3. 通信协议:OpenClaw 使用 WebSocket 进行全双工通信。如需通过 Chrome 开发者工具调试接口,可连接 ws://127.0.0.1:18789/
  4. 配置生效:修改 openclaw.json 后保存即可立即生效,无需重启 Gateway 服务

参考

Read more

为什么“虚拟现实“和“增强现实“不同?——从虚拟到混合的视觉革命

🕶️ 为什么"虚拟现实"和"增强现实"不同?——从虚拟到混合的视觉革命 🌈 大家好,我是无限大,欢迎收看十万个为什么系列文章 希望今天的内容能对大家有所帮助 今天咱们来聊聊VR和AR这个"视觉科技的双生子"!想象一下,你戴着头显在虚拟世界里打游戏,仿佛身临其境;你用手机对着桌子,屏幕上出现一个3D模型,仿佛它真的在桌子上——这些炫酷的体验,都是VR和AR带来的!但你知道它们的区别吗? 🤔 核心问题:VR和AR的区别是什么?它们的技术原理和应用场景有何不同? 很多人觉得VR和AR是"一回事",其实它们差别很大!VR就像"完全进入另一个世界",而AR是"在现实世界里加东西"。今天咱们就来揭开它们的神秘面纱! VR和AR的本质 * 🎮 VR(Virtual Reality):虚拟现实,通过头显完全沉浸在虚拟世界中,

FPGA原理和应用

FPGA原理和应用

大家好,我是良许。 说到 FPGA,可能很多做嵌入式的朋友都听说过,但真正深入了解的可能不多。 作为一名嵌入式程序员,我在工作中虽然主要接触的是单片机和嵌入式 Linux,但在汽车电子领域,FPGA 也是一个非常重要的技术方向。 今天就来和大家聊聊 FPGA 的原理和应用,希望能帮助大家对这个"神秘"的器件有更清晰的认识。 1. FPGA 是什么 1.1 FPGA 的基本概念 FPGA 的全称是 Field Programmable Gate Array,翻译过来就是"现场可编程门阵列"。 这个名字听起来有点拗口,但其实很好理解。 我们可以把 FPGA 想象成一块"电子积木",你可以根据自己的需求,把这些积木搭建成不同的电路结构。 与我们常用的单片机(如 STM32)

基于腾讯云云服务器搭建一个Clawdbot,实现Telegram机器人自动回复

基于腾讯云云服务器搭建一个Clawdbot,实现Telegram机器人自动回复

哈咯大家好,这里依然是码农的搬运工!! 从25年开始,全球都开始走向AI,拥抱AI。 最近博主,也就是我,发现一个国外作者,【Peter Steinberger】在本月推出了一个新的智能体【Clawdbot】,首先我们可以先去官网看一下这个东西是什么:Clawdbot  那么我也是研究了一把,但是这个文档实在是差点把我这个大专生劝退,纯英文,废了九牛二虎之力,我才差不多看懂了。肯定有小伙伴比较好奇,那么文档给你们放出来你们也可以看看:https://docs.molt.bot/start/getting-started OK!话不多说,那我们开始实操一下: 首先呢,看了一下这个文档,安装环境还是不错的,macOS/Linux、Windows【Powershell/CMD】 而且作者还贴心的给了安装命令,这样就省了好大一部分精力。不需要费劲去git拉取代码编译了。【这里需要注意一点,macos系统得14+,作者只有13的系统,所以是没有办法弄mac的】 当然,如果有小伙伴就是头铁,还是想从git上拉代码,那我也给你贴一下这个文档,你来安装:

Stable-Diffusion-v1-5-archive效果可解释性:注意力热力图可视化与Prompt关键token分析

Stable-Diffusion-v1-5-archive效果可解释性:注意力热力图可视化与Prompt关键token分析 你有没有遇到过这样的情况:精心构思了一段提示词,满怀期待地点击生成,结果出来的图片却和你想的完全不一样?或者,你只是微调了几个词,生成的图片却天差地别。 这背后,是Stable Diffusion这个“黑盒”在作祟。我们输入文字,它输出图片,但中间发生了什么,我们一无所知。今天,我们就来给这个“黑盒”开一扇窗,通过注意力热力图可视化和Prompt关键token分析,看看SD1.5模型到底是如何“理解”你的提示词,并一步步“画”出图片的。 理解这个过程,不仅能让你从“玄学调参”走向“科学创作”,更能让你精准控制画面,让AI真正成为你手中得心应手的画笔。 1. 为什么需要可解释性?告别“抽卡”式生成 在使用Stable Diffusion v1.5 Archive这类文生图模型时,很多用户的感觉像是在“抽卡”——输入提示词,