Windows安装原生Codex CLI 让你拥有更强力的AI代码助手!【支持GPT5.4、GPT5.3-codex】

Windows安装原生Codex CLI 让你拥有更强力的AI代码助手!【支持GPT5.4、GPT5.3-codex】

文章目录

前言

Codex CLIOpenAI于2025年4月17日发布的开源编程智能体,定位为终端运行的轻量级开发辅助工具,兼容同期发布的o3o4-mini大模型,可使用自然语言指令完成代码生成、重构测试及文件操作等任务 。其技术特性包括沙盒执行环境、192k令牌上下文长度及多模态编程支持,最低内存要求4GB,支持macOSLinuxWindows 11 WSL2系统 。

一、基础环境

1.操作系统
在这里插入图片描述
2.工具版本
  • PowerShell-7.6.0
  • nvm-1.2.2
  • Node-v24.13.0
  • Npm-11.6.2
  • Codex-0.116.0
  • CC-Switch-v3.12.0

二、部署

1.安装PowerShell 7
说明:这里安装powershell7是为了解决中文乱码问题
1.1以管理员身份运行 cmd
在这里插入图片描述
1.2安装powershell7
winget install--id Microsoft.PowerShell --source winget 
在这里插入图片描述
2.安装Node.js
2.1 安装nvm
2.2 安装Node&npm

win + r 输入pwsh回车

在这里插入图片描述
nvm ls //查看当前已安装的nodejs版本 nvm list available //查看可安装的nodejs LTS版本 nvm install24.13.0 //安装nodejs24.13.0版本 node-v //查看当前安装的node版本 npm-v //查看当前安装的npm版本 
说明:从图中可以看出我已经安装过了,所以这里不再做演示
在这里插入图片描述


在这里插入图片描述
3.安装Codex
npminstall-g @openai/codex` 
说明:我这里已经安装完了,所以再次执行是更新。
在这里插入图片描述
提示:
同理claude-code也可以通过同样方式安装:
npm install -g @anthropic-ai/claude-code

4.安装CC-Switch
说明:这是一个配置api切换工具
5.配置CC-Switch
5.1获取公益api key
说明:注册就不再赘述了,直接描述登录进去后如何用




5.2选择Codex 点击“添加供应商”

注意:上方选项栏选择codex

在这里插入图片描述
说明:将之前获取的配置复制到对应的“api key” 、“auth.json (JSON) *”和 “config.toml (TOML)”内即可,官网链接:https://ai.td.ee/ ,名称图标随意
在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
5.3配置测试
在这里插入图片描述
在这里插入图片描述

三、Codex简单使用

1.Powershell7中输入codex回车
说明:cd 到你想用的工作目录输入codex回车就回在这个目录行程对应的sandbox模型沙盒
在这里插入图片描述
2.Codex CLI 常用命令说明
在这里插入图片描述
指令中文释义详细说明
/model选择使用的模型及推理算力用来切换 Codex 背后的 AI 模型(比如不同版本的代码模型),还能调整推理的「算力 / 精细度」—— 算力越高,代码生成越精准,但速度稍慢。
/init初始化创建一个AGENTS.md文件,包含Codex的使用说明「重置 / 初始化当前的会话环境」,具体行为包括:清空当前会话的上下文、重置 Codex 的沙箱环境、恢复所有指令的默认配置、保留模型选择
/fast开启 / 关闭快速模式(开启后推理最快,但消耗 2 倍套餐额度)快捷切换「极速模式」:开启后代码生成速度翻倍,但会消耗双倍的 API 额度 / 套餐时长;适合赶时间写简单代码时用。
/permissions配置 Codex 允许执行的操作权限管理 Codex 的权限边界,比如是否允许它读取本地文件、执行终端命令、修改代码文件等;新手建议先限制权限,避免误操作。
/sandbox-add-read-dir <absolute_path>允许沙箱读取指定目录(用法:/sandbox-add-read-dir <绝对路径>)给 Codex 的「沙箱环境」授权,让它能读取你指定的文件夹(必须填绝对路径,比如 /Users/xxx/project);比如想让 Codex 分析你项目里的代码,就用这个指令授权。
/experimental开启 / 关闭实验性功能切换是否使用 Codex 的测试版功能(可能不稳定,但会有新特性,比如多文件联动、代码实时调试);新手建议默认关闭,避免出问题。
/skills使用技能插件,优化 Codex 处理特定任务的表现调用 Codex 的「技能库」,比如让它用「Python 性能优化」「前端样式调试」「Shell 脚本纠错」等专属技能处理对应任务,提升针对性。
/review检查我当前的代码修改,找出问题让 Codex 审核你刚改的代码,自动识别 Bug、语法错误、逻辑漏洞、不规范的写法(比如未定义的变量、缩进问题)。
/rename重命名当前对话线程给当前的 Codex 聊天 / 操作会话起个名字(比如「用户中心接口开发」),方便后续查找历史会话,尤其适合多任务并行时用。
/resume查看历史会话直接运行 codex resume,它会打开历史会话选择器。 最近一次会话可以用 codex resume --last
3.Codex使用测试
/model //切换模型 
在这里插入图片描述
为gpt-5.3-codex选择推理级别 1.低 快速响应,推理较浅 2.中等(默认) 在日常任务中平衡速度和推理深度 3.高 为复杂问题提供更深层次的推理 4.超高 为复杂问题提供额外高的推理深度 
在这里插入图片描述
提问: 当前支持最大上下文是多少 
在这里插入图片描述
/init // 模型读取当前工作目录下的代码工程总结成一个md文档(相当于告诉模型当前的项目工程信息便于指导后续操作) 
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
提示:这里97%为上下文长度
 /resume \\ 查看问题历史记录 
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
codex resume --last\\ 恢复最近一次会话 
在这里插入图片描述

四、Codex进阶使用(接入VS Code)

1.进入扩展页面搜索codex 并安装对应插件
说明:安装第一个名为Codex – OpenAI’s coding agent
在这里插入图片描述
2.重启vscode点击gpt图标
提示:无需登录 等待加载完毕即可使用(因为前面已经配置过CC,它会自动读取配置文件)
在这里插入图片描述
3.查看监控
说明:可以看到User-Agent一列显示为codex_vscode
在这里插入图片描述
提示:个人感觉用法跟终端命令行没啥区别,但是速度明显不如轻量级的cli终端快。还是建议大家直接使用CLI终端即可!

结束语

感谢大家耐心看完本篇博客,本次 Codex CLI 安装使用分享就先告一段落啦。后续还会带来更多实用功能演示和详细讲解,觉得内容不错的话,别忘了给作者点赞、收藏、关注哦!


Read more

1.5k stars!阿里开源 PageAgent:让 AI 直接“住进“你的网页,用自然语言操控一切!

1.5k stars!阿里开源 PageAgent:让 AI 直接“住进“你的网页,用自然语言操控一切!

阿里开源 PageAgent:让 AI 直接"住进"你的网页,用自然语言操控一切 不需要浏览器插件,不需要 Python,不需要截图——一行 JS,让你的网页秒变 AI 智能体。 一、先说痛点:Web 自动化为什么这么难? 如果你用过 Selenium、Playwright,或者最近流行的 browser-use,你一定遇到过这些头疼的问题: * 环境太重:得装 Python、headless 浏览器、各种依赖,部署复杂,维护成本高; * 依赖截图 + OCR:很多方案靠多模态模型"看图操作",慢、贵、还不准; * 权限门槛高:要控制浏览器,往往需要特殊权限甚至操作系统级别的访问; * 对现有产品改造成本大:

Phi-3-Mini-128K中小企业应用:替代Copilot的本地化代码补全与解释引擎

Phi-3-Mini-128K中小企业应用:替代Copilot的本地化代码补全与解释引擎 1. 项目概述 Phi-3-Mini-128K是一款基于微软Phi-3-mini-128k-instruct模型开发的轻量化对话工具,专为中小企业开发者设计,提供本地化运行的代码补全与解释功能。相比云端Copilot服务,它具备完全本地运行、数据隐私保护、低成本部署等显著优势。 1.1 核心价值主张 * 隐私安全:所有数据处理均在本地完成,企业代码资产无需上传云端 * 成本效益:仅需7-8GB显存的GPU即可运行,大幅降低硬件投入 * 专业适配:针对代码场景优化的128K上下文窗口,完美处理复杂代码文件 * 易用体验:仿ChatGPT的交互界面,开发者零学习成本上手 2. 技术架构解析 2.1 模型核心能力 Phi-3-mini-128k-instruct模型经过微软专业调优,在代码理解与生成任务上表现优异: * 代码补全:支持Python、Java、C++等主流语言的智能补全 * 代码解释:可逐行分析代码逻辑,生成清晰的技术文档 * 错误诊断:识别常见语法错误并

高效AIGC工具推荐:10个热门平台免费与付费功能全指南

高效AIGC工具推荐:10个热门平台免费与付费功能全指南

�� 10大降AIGC平台核心对比速览 排名 工具名称 降AIGC效率 适用场景 免费/付费 1 askpaper ⭐⭐⭐⭐⭐ 学术论文精准降AI 付费 2 秒篇 ⭐⭐⭐⭐⭐ 快速降AIGC+降重 付费 3 Aibiye ⭐⭐⭐⭐ 多学科论文降AI 付费 4 Aicheck ⭐⭐⭐⭐ AI检测+降重一体化 付费 5 白果AI论文 ⭐⭐⭐ 格式规范+降AI 免费/付费 6 文赋AI论文 ⭐⭐⭐ 初稿生成+降AI 免费/付费 7 笔尖AI写作 ⭐⭐⭐ 多场景降AI 免费 8 梅子AI论文 ⭐⭐⭐ 学历适配降AI 付费 9 闪稿AI论文 ⭐⭐ 紧急降AI处理 免费 10

Whisper-large-v3长文本处理:万字级语音转写+智能段落划分演示

Whisper-large-v3长文本处理:万字级语音转写+智能段落划分演示 1. 这不是普通语音转文字——它能读懂万字长录音的“呼吸节奏” 你有没有试过把一场90分钟的技术分享录下来,想转成文字整理笔记,结果发现: * 普通工具卡在3分钟就报错? * 转出来的文字密不透风,全是连在一起的大段落,根本没法读? * 中英文混杂的发言,识别错一半,还得逐句核对? 这次我们实测的 Whisper-large-v3 Web 服务,直接绕开了这些坑。它不只是“把声音变成字”,而是真正理解一段长语音的语义节奏——自动识别说话人停顿、话题切换、语气转折,再把万字转录结果智能切分成逻辑清晰、可读性强的自然段落。 这不是调参炫技,而是面向真实工作流的工程优化:会议纪要、课程听讲、访谈整理、播客文稿……所有需要“听完再消化”的场景,它都能一步到位。 本文全程基于 by113小贝 二次开发的本地化部署版本,不依赖任何云端API,所有音频数据留在你自己的机器里。下面带你从零跑通万字语音转写全流程,重点看它怎么把一整段27分钟的讲座录音,变成结构分明、带时间戳、可直接复制使用的中文文稿。