2025年10月14日-别再为 Claude 付费!Codex + 免费模型 + cc-switch,多场景 AI 编程全搞定

2025年10月14日-别再为 Claude 付费!Codex + 免费模型 + cc-switch,多场景 AI 编程全搞定

1.前言

Codex 是由 OpenAI 开发的强大 AI 代码生成模型,基于 GPT 架构微调而成,能够根据自然语言描述自动生成高质量代码。它支持数十种编程语言,尤其在 Python 和 JavaScript 上表现突出。

img

之前一直使用claude code(简称CC) 实现代码编程,每天稍微用一下大几十美刀就没了。 这几天开始用codex ,使用公益网站提供的gpt 5模型用起来也太省了。今天一个下午用下来总共消耗了0.02美金,这也太爽了。给大家看一下消耗截图。

img

而且代码能力也不输claude code 对应的claude4.5模型,我们看一下他们价格对比。

img

初步算了一下价格claude4.5模型是gpt5模型的1333倍,对比claude3.5模型也只是它的千分之3的费用,基本可以算是白菜价了。今天就带大家一起玩转着codex来实现vibe coding编程。

2.codex安装及使用

node.js下载和安装

使用codex我们需要先安装node.js这个和之前使用claude code一样

node.js下载地址https://nodejs.org/zh-cn/download 这里我们选择对应的版本下载,我这里以linux为例

img

输入下面命令

# Download and install nvm:curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# in lieu of restarting the shell\. "$HOME/.nvm/nvm.sh"# Download and install Node.js: nvm install22# Verify the Node.js version: node -v # Should print "v22.20.0".# Verify npm version:npm -v # Should print "10.9.3".
img

codex 安装

我们输入下面命令安装codex

npminstall -g @openai/codex 

安装完成后,我们使用agentrouter.org 提供的免费的模型(gpt5模型)这里我们需要做如下设置。

设置系统环境变量,变量名为 AGENT_ROUTER_TOKEN

sudovim /etc/profile 

在文件末尾添加

exportAGENT_ROUTER_TOKEN="你的令牌值"
img

保存退出后,使配置立即生效

source /etc/profile 

创建 ~/.codex/config.toml 文件,并添加如下配置

model ="gpt-5" model_provider ="openai-chat-completions" preferred_auth_method ="apikey"[model_providers.openai-chat-completions] name ="OpenAI using Chat Completions" base_url ="https://agentrouter.org/v1" env_key ="AGENT_ROUTER_TOKEN" wire_api ="chat" query_params ={} stream_idle_timeout_ms =300000

平台提供多种模型

img

如果换其他模型 这里我们用glm-4.5 模型为案例改成下面配置

model ="glm-4.5" model_provider ="openai-chat-completions" preferred_auth_method ="apikey"[model_providers.openai-chat-completions] name ="OpenAI using Chat Completions" base_url ="https://agentrouter.org/v1" env_key ="AGENT_ROUTER_TOKEN" wire_api ="chat" query_params ={}

接下来我们需要创建 ~/.codex/auth.json 文件,并在其中加入如下代码

{"OPENAI_API_KEY":"这里换成你申请的 KEY"}

通过以上配置我们就完成了codex安装和配置了。

codex验证测试

我们在命令行窗口输入 codex

img

确定后,进入codex shell窗口,随便输入内容

img

这样我们最基本的codex 就安装成功了。

codex 常用的命令

下面给大家简单介绍一下codex常用命令。

img
img

熟悉claude code 小伙伴应该了解很多命令其实是差不多的 比如compact 做压缩使用。

model

可以选择模型速度 高中低的速度,我们这里就选择默认即可。

img

Approval

Approval Mode(审批模式)定义了 Codex 在执行读取、写文件或运行命令等操作前,是否必须获得用户确认。它既提供便捷的无中断体验,也保留关键决策点,防止潜在风险.

img
img

review

img
  • 审查未提交的更改:用于查看尚未提交到版本控制系统的代码修改内容,便于在提交前检查代码质量。
  • 审查一次提交:针对已经完成提交的某一次代码提交记录进行审查,聚焦单次提交的改动。
  • 针对基准分支进行审查:将当前代码与指定的基准分支(如主分支main)进行对比,审查分支间的代码差异,常用于多人协作时的分支合并前检查。
  • 自定义审查说明:允许用户根据项目需求,自定义审查的规则、步骤或说明文档,满足个性化的代码审查流程。

new

这个很好理解就是开启一个新的聊天对话

init

在配置与 Codex 相关的项目时,通过初始化命令自动生成一份文档,用于定义 Codex 的代理(agents)操作规则、使用说明或工作流程

compact

总结对话,以避免达到上下文限制。对上下文进行压缩

diff

查看 Git 代码差异,Git 的核心命令之一,默认功能是 “查看已追踪文件(已通过git add加入版本控制的文件)的未提交改动差异”,比如修改了某个已追踪文件后,用它能看到具体改了哪些内容。

mention

提及这个文件,我们通常用应用这个文件使用@

cc-switch

有的小伙伴可能会有疑问了这么多命令行,好麻烦,另外如果我电脑上想配置多个模型,通过命令行切换就太麻烦了。之前有给大家介绍过使用claude-code-router .《干货!2025 AI 开发工具全攻略:CLI 命令行 + 集成工具推荐,附免费额度指南》 这个是基于claude code 实现多个模型配置方法。本次给大家介绍支持claude code 和codex 的一个更简单的工具叫做cc-switch.

这个开源工具的地址是https://github.com/farion1231/cc-switch

这个工具支持多个操作系统版本 macOS 、linux 、windows. windows 安装相对比较简单下载EXE安装即可。

img

我使用的是linux 所以下载https://github.com/farion1231/cc-switch/releases/download/v3.5.1/CC-Switch-v3.5.1-Linux.deb

安装命令也很简单,执行下面命令

sudo dpkg -i CC-Switch-v3.5.1-Linux.deb 

安装好后我们在shell 命令行执行下面命令cc-switch 弹出对话框

img

目前这个工具支持claude 和codex

点击添加供应商这里可以弹出支持目前主流的多个供应商

img

这个配置也比较简单填写相关信息即可

img

上面的配置是基于claude的

img

下面是基于codex的 上图配置的模型是gpt-5 若果配置多个模型 可以增加多个配置即可

img

使用的时候我们只要启用一个就可以了

img

通过这个工具我们就非常方便的切换各个模型,只需要第一次配置即可。

3.codex mcp 安装

上面给大家介绍了最基本的codex 命令,如果想让codex更强大那么必须要给它安装几个MCP . 下面给大家安装几个常见的mcp

安装命令如下:

1.context7

[mcp_servers.context7] args = ["-y", "@upstash/context7-mcp", "--api-key", "YOUR_API_KEY"] command = "npx" 

2.Playwright MCP

~/.codex/config.toml

[mcp_servers.playwright] command = "npx" args = ["@playwright/mcp@latest"] 

3.Chrome DevTools MCP

codex mcp add chrome-devtools -- npx chrome-devtools-mcp@latest 

4.sentry

codex mcp add sentry -- npx -y mcp-remote@latest https://mcp.sentry.dev/mcp 

5.n8n-mcp

[mcp_servers.n8n] command = "npx" args = ["n8n-mcp"] env = { "MCP_MODE" = "stdio", "LOG_LEVEL" = "error", "DISABLE_CONSOLE_OUTPUT" = "true","N8N_API_URL": "http://localhost:5678/","N8N_API_KEY": "eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzdWIiOiI5NTQ0ZGUwYS1hY2FhLTRmMTAtOWU2MC1lYTdkODliNjc1NWYiLCJpc3MiOiJuOG4iLCJhdWQiOiJwdWJsaWMtYXBpIiwiaWF0IjoxNzYwNDMyMjQ0fQ.2dZNwI6Vxx8cw06sM_dNjaDwrM1efrKYpNbCLdMHmBk" } 

上面有些是通过命令行执行安装,有些是通过修改~/.codex/config.toml 实现的。安装后的可以在config.toml 找到安装信息

img

安装完成后我们可以在codex 查看这个MCP list

img

通过上面截图可以看到我上面已经安装好几个MCP 了。其他的MCP 大家根据自己的需求安装,安装的方法和上面介绍的一样。

4.codex 实战

接下来我们使用codex 来实战一下。

我这里有一个MD文档。文档里面有一些图片,图片里面的文字信息我觉的很有意思。我接下来使用codex把这些图片的信息使用多模态的能力识别出来整理出文本信息。例如:

img

我的提示词内容如下:

请使用chrome-devtools这个MCP工具提取"假期值班毫无意义为啥就是取消不了.md"文档里面每张图片里面文字内容信息。输出到一个图片提取信息2.md文档中显示这个提取图片里面文字内容信息。请基于以上要求执行。全部使用中文。 
img

​ 这里我们使用MCP 工具抓取页面图片信息实现OCR识别。

img

这个是它运行完之后的结果。这里我们有2个识别结果。1个是下午用claude code 识别的,1个是 gpt5-codex识别的

img

我们使用BCompare比较工具比较识别的内容是否有差异。

img

从比对结果来看 图片识别的文字内容信息应该是差不多的。我们在找一个原图看看,这里我们就找图片9

img

呵呵 应该是对的上的。

上面我是用一个非常简单的案例使用codex 来识别一个文档中带有图片文字的信息,让它把我整理出来。我们就通过非常简单提示词+MCP 工具就把我要的信息提取出来了。

有的小伙伴问你要这个信息干啥,嘿嘿我后面自然有用,感兴趣可以关注后面的文章我拿这个信息干点其他事情。

5.总结

今天主要带大家了解并实现了 Codex 的安装配置与实战应用完整流程,该流程以 OpenAI 开发的 Codex 代码生成模型为核心,结合 node.js 环境搭建、agentrouter.org 提供的模型服务,搭配 cc-switch 工具的多模型管理能力,形成了一套从环境部署到功能扩展的实用化解决方案。

通过这套实践方案,用户能够低成本体验 Codex 的强大能力 —— 借助简单的安装配置步骤(包括 node.js 环境搭建、Codex 安装、环境变量与配置文件设置),无需复杂的模型部署成本,就能快速启用 GPT-5、GLM-4.5 等多种模型,无论是基础的代码生成、对话交互,还是通过 MCP 扩展的图片文字识别、浏览器调试等功能,都能通过简洁的命令行操作完成,极大降低了开发者使用 AI 辅助编程的技术门槛。在实际验证中,Codex 能够稳定响应多样化的需求,特别是结合 chrome-devtools 等 MCP 工具后,有效实现了多模态场景下的信息提取,且成本远低于同类工具。同时,方案具备良好的扩展性 —— 小伙伴们可以基于此扩展更多实用功能,如自动化代码审查、多语言程序调试、文档批量处理等,进一步丰富 Codex 在实际开发场景中的应用价值。

感兴趣的小伙伴可以按照文中提供的步骤进行实践,根据需求配置适合的模型与 MCP 工具。今天的分享就到这里结束了,我们下一篇文章见。

Read more

11-Xtuner具体使用以及LLama Factory与Xtuner多卡微调大模型

11-Xtuner具体使用以及LLama Factory与Xtuner多卡微调大模型

训练前 500轮训练后 xtuner命令不存在 版本:0.2.0存在 回退到0.2.0rc0版本,注意这个版本的依赖固定 一、大模型分布式训练的基本概念 1.1 为什么需要分布式训练? 模型规模爆炸:现代大模型(如GPT-3、 LLaMA等)参数量达千亿级别,单卡GPU无法存储完整模型。 计算资源需求:训练大模型需要海量计算(如GPT-3需数万GPU小时),分布式训练可加速训练过程。 内存瓶颈:单卡显存不足以容纳大模型参数、梯度及优化器状态。 1.2 分布式训练的核心技术 数据并行(Data Parallelism) 原理:将数据划分为多个批次,分发到不同设备,每个设备拥有完整的模型副本。 同步方式:通过All-Reduce操作同步梯度(如PyTorch的DistributedDataParallel)。 挑战:通信开销大,显存占用高(需存储完整模型参数和优化器状态)。 模型并行(Model Parallelism) 原理:

SiameseUniNLU镜像免配置优势:开箱即用支持NER/RE/EC/RC/NLI/RC/QA八大任务

SiameseUniNLU镜像免配置优势:开箱即用支持NER/RE/EC/RC/NLI/RC/QA八大任务 你是不是也遇到过这样的烦恼?想用AI模型处理一段中文文本,比如从新闻里提取人名地名,或者分析一段评论是好评还是差评。结果发现,每个任务都需要找一个专门的模型,部署起来步骤一大堆,配置文件看得人头大,好不容易跑起来了,效果还不一定好。 今天要介绍的SiameseUniNLU镜像,就是来解决这个问题的。它就像一个“自然语言处理瑞士军刀”,把命名实体识别、关系抽取、情感分类等八个常用任务,全都打包进了一个模型里。最棒的是,它完全免配置,下载下来就能用,真正做到了开箱即用。 这篇文章,我就带你快速上手这个强大的工具,看看它到底能做什么,以及怎么用最简单的几步,让它为你工作。 1. SiameseUniNLU是什么?一个模型解决八大任务 在深入使用之前,我们先花几分钟了解一下SiameseUniNLU到底厉害在哪里。理解了它的设计思路,你用起来会更得心应手。 1.1 核心思路:用“提示”统一所有任务 传统的自然语言处理(NLP)

从零开始:AIGC中的变分自编码器(VAE)代码与实现

从零开始:AIGC中的变分自编码器(VAE)代码与实现

个人主页:chian-ocean 文章专栏 深入理解AIGC中的变分自编码器(VAE)及其应用 随着AIGC(AI-Generated Content)技术的发展,生成式模型在内容生成中的地位愈发重要。从文本生成到图像生成,变分自编码器(Variational Autoencoder, VAE)作为生成式模型的一种,已经广泛应用于多个领域。本文将详细介绍VAE的理论基础、数学原理、代码实现、实际应用以及与其他生成模型的对比。 1. 什么是变分自编码器(VAE)? 变分自编码器(VAE)是一种生成式深度学习模型,结合了传统的概率图模型与深度神经网络,能够在输入空间和隐变量空间之间建立联系。VAE与普通自编码器不同,其目标不仅仅是重建输入,而是学习数据的概率分布,从而生成新的、高质量的样本。 1.1 VAE 的核心特点 * 生成能力:VAE通过学习数据的分布,能够生成与训练数据相似的新样本。 * 隐空间结构化表示:VAE学习的隐变量分布是连续且结构化的,使得插值和生成更加自然。 * 概率建模:VAE通过最大化似然估计,能够对数据分布进行建模,并捕获数据的复杂特性。

LLaMA-Factory 大模型微调平台

LLaMA-Factory 大模型微调平台

目录 文章目录 * 目录 * LLaMA-Factory * LLaMA-Factory + Qwen3-7B + LoRA * 安装部署 * 准备数据集 * 执行微调 * 批量推理和训练效果评估 * LoRA 模型合并导出 * 部署运行微调后的大模型 LLaMA-Factory Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。 使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。 LLaMA-Factory + Qwen3-7B + LoRA 安装部署 * 容器安装 git clone