用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案
这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。

先说结论

如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打:

  • OpenClaw 负责 Agent 编排(工具、文件、会话、渠道)
  • OpenAI Codex 5.3 负责核心编码能力
  • Feishu 作为消息入口(随时远程下指令)
  • 本地 Workspace 放在 G:\claw,项目资产可控

这套的性价比点在于:

  1. 不需要重搭一整套复杂平台
  2. Codex 5.3 编码质量明显高于普通通用模型
  3. 本地文件 + Git 提交链路完整,能直接干活

一、踩坑起点:OAuth 不是“登录成功 = 配置完成”

我最早遇到的报错是:

OpenAI OAuth failed TypeError: fetch failed 

这个报错在 Windows 上挺常见。关键点:

  • 回调 URL 里必须只提取 code= 后面到 & 之前的字符串
  • 不要把整条 http://localhost:1455/auth/callback?... 贴进去

正确做法示例:

ac_xxx...(只贴这一段 code) 

二、Channel / Hooks 阶段别纠结

Onboarding 里会问很多项,比如:

  • 选哪个 channel
  • hooks 要不要开

我的经验:

  • 已经有飞书就选 Skip for now(不影响已有连接)
  • hooks 初期也选 Skip for now(先把主链路跑通)

先追求“可用”,再追求“炫技自动化”。


三、模型显示很多,不等于你都能用

在 model picker 里我一开始也困惑:

  • 为啥我登录的是 ChatGPT,却看到一堆 openrouter 模型?

因为 OpenClaw 会列出多个 provider 的模型池。能看到 ≠ 有权限。

真正目标应该选:

openai-codex/gpt-5.3-codex 

而不是:

openrouter/openai/gpt-5.3-codex 

后者通常还会出现 auth missing


四、最关键配置:默认模型和工作目录

最终确认有效的配置结构是 agents.defaults.*

1) 把默认模型切到 Codex 5.3

agents: { defaults: { model: { primary: 'openai-codex/gpt-5.3-codex' } } } 

2) 把默认工作目录固定到 G:\claw

agents: { defaults: { workspace: 'G:\\claw' } } 

3) 保留备用模型(推荐)

agents: { defaults: { model: { primary: 'openai-codex/gpt-5.3-codex' }, models: { 'openai-codex/gpt-5.3-codex': {}, 'qwen-portal/coder-model': {}, 'qwen-portal/vision-model': {} }, workspace: 'G:\\claw' } } 

这样默认走 Codex,Qwen 作为备胎,视觉任务也不丢。


五、日志怎么读:一眼判断系统是否健康

看这几类信息就够了:

  1. agent model: 是否已是 openai-codex/gpt-5.3-codex
  2. Feishu websocket 是否 started / ready
  3. Web 控制 UI 是否 connected
  4. 是否能成功写文件并提交 git

我最后看到自动 commit 成功,说明整条链路已经闭环:

Feishu -> OpenClaw -> Codex -> 文件写入 -> Git 

六、一个常见告警:feishu 插件重复

我日志里一直有:

duplicate plugin id detected: feishu 

原因通常是 plugins.entries.feishuplugins.installs.feishu 同时声明。

处理建议:

  • 保留 installs.feishu
  • 避免在 entries 里重复声明 feishu

这不是致命问题,但建议清理,避免后续升级时配置覆盖。


七、为什么说这是“性价比方案”

我现在的实际体验:

  • 能力:Codex 5.3 的代码质量、上下文稳定性都在线
  • 效率:飞书里直接下任务,回家再看结果
  • 可控:项目全在 G:\claw,数据边界明确
  • 扩展性:后面可继续开 hooks、browser、自动化 pipeline

一句话:

不是最花哨,但是真的好用,且每一步都可解释、可调试、可迭代。

八、给后来者的最短 checklist

[ ] openclaw onboard --auth-choice openai-codex [ ] OAuth 回调只粘 code,不粘完整 URL [ ] model primary 设为 openai-codex/gpt-5.3-codex [ ] workspace 设为 G:\claw [ ] Feishu 连通后先保持 Skip for now [ ] 清理 feishu duplicate plugin 声明 [ ] 重启后检查 gateway/log/model 是否生效 

如果你跟我一样是“想快速拥有一个能写代码、能落地文件、能远程控制”的个人 AI 工程助手,这套 OpenClaw + Codex 5.3,值得直接上手。

Read more

2024:人工智能大模型的璀璨年代

2024:人工智能大模型的璀璨年代

大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。 本文主要对2024年度人工智能大模型的创新和应用进行了总结,希望对学习大语言模型的同学们有所帮助。 文章目录 * 1. 前言 * 2. 从OpenAI一方独霸到群雄逐鹿 * 3. 大模型的重要应用方向:代码助手、智能客服、知识搜索 * 4. 从专家专属到人人可用:提示词使用趋于简单 1. 前言 人工智能的发展轨迹似乎正在印证一个有趣的历史规律:颠覆性技术往往以超出最初预期的方式迅速演进。回顾历史,电力的普及、互联网的崛起,乃至智能手机的诞生,无一不是以远超人们想象的速度改变了社会的方方面面。 随着2022年底ChatGPT的问世,AI大模型如同一颗投入平静湖面的重磅炸弹

Flutter 与 Web 混合开发:跨平台的完美融合

Flutter 与 Web 混合开发:跨平台的完美融合

Flutter 与 Web 混合开发:跨平台的完美融合 写在前面 今天想和你聊聊一个让跨平台开发更具可能性的话题——Flutter 与 Web 混合开发。在我眼里,Flutter 就像一位多才多艺的艺术家,既能在移动平台上展现精彩,也能在 Web 世界中绽放光芒。 Flutter Web 的崛起 Flutter Web 是 Flutter 的一个重要方向,它允许我们使用同一套代码库构建运行在浏览器中的应用。随着 Flutter 3.0 的发布,Flutter Web 的性能和稳定性得到了显著提升,为混合开发开辟了新的可能。 Flutter Web 的优势 1. 代码复用:使用同一套代码库构建移动应用和 Web 应用,减少开发和维护成本 2. 一致的用户体验:在不同平台上提供一致的视觉和交互体验 3. 高性能:

从零到一:text-generation-webui 在低配环境下的极限挑战

从零到一:text-generation-webui 在低配环境下的极限挑战 1. 低配环境下的机遇与挑战 在AI技术快速发展的今天,大语言模型(LLM)正逐渐从云端走向本地。对于个人开发者、学生或小型团队而言,如何在资源有限的设备上运行这些"庞然大物"成为了一项极具挑战性的任务。text-generation-webui作为一款开源的LLM Web界面工具,为这一需求提供了可能。 为什么选择text-generation-webui? 这款工具最大的优势在于其"大一统"的设计理念——支持多种模型格式和量化策略,能够根据硬件条件灵活调整配置。在仅有CPU的Windows设备上,通过精心选择和优化,我们完全可以让一个小型LLM流畅运行。 常见低配环境配置示例: 硬件组件入门配置推荐最低配置CPU四核i5六核i7内存8GB16GB存储HDDSSD显卡无集成显卡 2. 环境准备与安装避坑指南 2.1 系统基础环境配置 在开始前,确保你的Windows系统满足以下条件: * Windows 10/11 64位系统 * Python 3.10或3.11(推荐使用

Trae AI 全新功能 SSHremote助力开发者个人产品打造,高效构建全栈应用

Trae AI 全新功能 SSHremote助力开发者个人产品打造,高效构建全栈应用

前言 在快速迭代的AI时代,程序员当仁不让的应该是一个弄潮儿,那么问题来了,AI可以给程序员带来什么?有些懂营销的利用信息差卖课挣钱,有产品出生的朋友,抓住AI机会找人做了一个AI小程序,产生了不错的流水。作为一名开发,AI除了智能帮助我们生成一些代码,还可以帮助我们做什么?十年前,有很多“就缺一名程序员”的项目,如今有了AI,一个程序员通过AI加持如何更进一步打造属于我们的作品?本文通过AI IDE帮助我们快速成为一名全栈工程师,快速打造属于我们自己的作品,做一个有作品的程序员。 1. Trae 介绍 在24年的时候随着AI的加持出现了Copilot为代表的助手类型的辅助代码工具,当时在写N-API接口时被一坨坨模版话的代码折磨到头疼,有了助手加持,这些重复代码被精确的生成出来,极大的提升了效率。 Trae 是什么? 在25年,随着人们对AI的进一步探索,出现了更强大的代码工具,以Trae为例,用官方的话说就是:“Trae 是国内首个 AI IDE,深度理解中文开发场景。AI 高度集成于 IDE 环境之中,为你带来比 AI 插件更加流畅、准确、