用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案
这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。

先说结论

如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打:

  • OpenClaw 负责 Agent 编排(工具、文件、会话、渠道)
  • OpenAI Codex 5.3 负责核心编码能力
  • Feishu 作为消息入口(随时远程下指令)
  • 本地 Workspace 放在 G:\claw,项目资产可控

这套的性价比点在于:

  1. 不需要重搭一整套复杂平台
  2. Codex 5.3 编码质量明显高于普通通用模型
  3. 本地文件 + Git 提交链路完整,能直接干活

一、踩坑起点:OAuth 不是“登录成功 = 配置完成”

我最早遇到的报错是:

OpenAI OAuth failed TypeError: fetch failed 

这个报错在 Windows 上挺常见。关键点:

  • 回调 URL 里必须只提取 code= 后面到 & 之前的字符串
  • 不要把整条 http://localhost:1455/auth/callback?... 贴进去

正确做法示例:

ac_xxx...(只贴这一段 code) 

二、Channel / Hooks 阶段别纠结

Onboarding 里会问很多项,比如:

  • 选哪个 channel
  • hooks 要不要开

我的经验:

  • 已经有飞书就选 Skip for now(不影响已有连接)
  • hooks 初期也选 Skip for now(先把主链路跑通)

先追求“可用”,再追求“炫技自动化”。


三、模型显示很多,不等于你都能用

在 model picker 里我一开始也困惑:

  • 为啥我登录的是 ChatGPT,却看到一堆 openrouter 模型?

因为 OpenClaw 会列出多个 provider 的模型池。能看到 ≠ 有权限。

真正目标应该选:

openai-codex/gpt-5.3-codex 

而不是:

openrouter/openai/gpt-5.3-codex 

后者通常还会出现 auth missing


四、最关键配置:默认模型和工作目录

最终确认有效的配置结构是 agents.defaults.*

1) 把默认模型切到 Codex 5.3

agents: { defaults: { model: { primary: 'openai-codex/gpt-5.3-codex' } } } 

2) 把默认工作目录固定到 G:\claw

agents: { defaults: { workspace: 'G:\\claw' } } 

3) 保留备用模型(推荐)

agents: { defaults: { model: { primary: 'openai-codex/gpt-5.3-codex' }, models: { 'openai-codex/gpt-5.3-codex': {}, 'qwen-portal/coder-model': {}, 'qwen-portal/vision-model': {} }, workspace: 'G:\\claw' } } 

这样默认走 Codex,Qwen 作为备胎,视觉任务也不丢。


五、日志怎么读:一眼判断系统是否健康

看这几类信息就够了:

  1. agent model: 是否已是 openai-codex/gpt-5.3-codex
  2. Feishu websocket 是否 started / ready
  3. Web 控制 UI 是否 connected
  4. 是否能成功写文件并提交 git

我最后看到自动 commit 成功,说明整条链路已经闭环:

Feishu -> OpenClaw -> Codex -> 文件写入 -> Git 

六、一个常见告警:feishu 插件重复

我日志里一直有:

duplicate plugin id detected: feishu 

原因通常是 plugins.entries.feishuplugins.installs.feishu 同时声明。

处理建议:

  • 保留 installs.feishu
  • 避免在 entries 里重复声明 feishu

这不是致命问题,但建议清理,避免后续升级时配置覆盖。


七、为什么说这是“性价比方案”

我现在的实际体验:

  • 能力:Codex 5.3 的代码质量、上下文稳定性都在线
  • 效率:飞书里直接下任务,回家再看结果
  • 可控:项目全在 G:\claw,数据边界明确
  • 扩展性:后面可继续开 hooks、browser、自动化 pipeline

一句话:

不是最花哨,但是真的好用,且每一步都可解释、可调试、可迭代。

八、给后来者的最短 checklist

[ ] openclaw onboard --auth-choice openai-codex [ ] OAuth 回调只粘 code,不粘完整 URL [ ] model primary 设为 openai-codex/gpt-5.3-codex [ ] workspace 设为 G:\claw [ ] Feishu 连通后先保持 Skip for now [ ] 清理 feishu duplicate plugin 声明 [ ] 重启后检查 gateway/log/model 是否生效 

如果你跟我一样是“想快速拥有一个能写代码、能落地文件、能远程控制”的个人 AI 工程助手,这套 OpenClaw + Codex 5.3,值得直接上手。

Read more

前端异常捕获与统一格式化:从 console.log(error) 到服务端上报

前端异常捕获与统一格式化:从 console.log(error) 到服务端上报

🧑 博主简介:ZEEKLOG博客专家,「历代文学网」(公益文学网,PC端可以访问:https://lidaiwenxue.com/#/?__c=1000,移动端可关注公众号 “ 心海云图 ” 微信小程序搜索“历代文学”)总架构师,首席架构师,也是联合创始人!16年工作经验,精通Java编程,高并发设计,分布式系统架构设计,Springboot和微服务,熟悉Linux,ESXI虚拟化以及云原生Docker和K8s,热衷于探索科技的边界,并将理论知识转化为实际应用。保持对新技术的好奇心,乐于分享所学,希望通过我的实践经历和见解,启发他人的创新思维。在这里,我希望能与志同道合的朋友交流探讨,共同进步,一起在技术的世界里不断学习成长。 🤝商务合作:请搜索或扫码关注微信公众号 “ 心海云图 ” 前端异常捕获与统一格式化:从 console.log(error) 到服务端上报 引言 在前端开发中,异常监控是保证应用稳定性的重要一环。当用户遇到页面白屏、功能不可用等问题时,如果能及时收集到详细的错误信息(包括堆栈、

通义千问+DeepSeek+Kimi降AI指令合集:15个实用Prompt(2026最新)

通义千问+DeepSeek+Kimi降AI指令合集:15个实用Prompt(2026最新)

通义千问+DeepSeek+Kimi降AI指令合集:15个实用Prompt(2026最新) 用AI写完论文只是第一步,怎么让检测系统认不出来才是真正的难题。网上流传的降AI指令五花八门,有的有效有的纯忽悠,我花了一个月时间挨个测试,最后筛出来15个确实管用的Prompt。覆盖通义千问、DeepSeek和Kimi三个平台,每个指令都标注了适用场景和实测降幅,直接拿走用。 先说一个大前提:Prompt降AI的天花板 在分享具体指令之前,必须先把预期管理做好。用AI自己来降AI这个思路是可行的,但有天花板。实测下来,纯靠Prompt指令最多能把AI率从90%+降到30%-40%之间,要想降到20%以下非常难。原因很简单:不管你怎么写Prompt,输出的文本还是AI生成的,只是换了一种AI生成的方式。检测器看的是统计特征,不是内容本身。 但这不意味着Prompt指令没用。对于AI率不太高的场景(比如60%左右),或者作为降AI流程的第一步,Prompt改写能省掉很多后续工作量。如果你的目标是降到15%以下,建议Prompt改写之后再配合专业工具做二次处理。 通义千问降AI指令(5

2026年前端开发工程师转型AI Agent开发工程师全指南

前端已死,这个传说已经流传了不止5年,2026年可能它真的要升天了~ 2026年,随着大模型技术的成熟与落地,AI Agent(智能体)已成为继移动互联网之后的下一个超级风口。与此同时,传统前端开发工程师的处境并不乐观,日益缩减的岗位HC与裁员潮,令无数前端开发者无比焦虑。在这样的处境下,我想最有效的生存之道就是转型做AI Agent工程师(打不过就加入😂)。 本文将深度剖析前端工程师转型AI Agent开发的必要性、可行性及完整路径,通过对比技术栈、分析核心优势、构建知识图谱,为处于职业焦虑中的前端开发者提供一份清晰的“逃生”与“进阶”地图。 一、前端开发工程师现在的处境 不用回避这个问题:前端工程师的处境在 2023 年之后开始变得严峻,到2026年已经到了基本无法逆转的地步。 * 需求萎缩与裁员潮:随着低代码/无代码平台的普及以及AI生成代码(如GitHub Copilot X、Cursor等)的成熟,初级和中级的CRUD(增删改查)前端需求大幅减少。大厂纷纷缩减前端编制,无数前端工程师被纳入裁员名单,再就业难度显著增加。 * 技术内卷严重: