Windows安装原生Codex CLI 让你拥有更强力的AI代码助手!【支持GPT5.4、GPT5.3-codex】

Windows安装原生Codex CLI 让你拥有更强力的AI代码助手!【支持GPT5.4、GPT5.3-codex】

文章目录

前言

Codex CLIOpenAI于2025年4月17日发布的开源编程智能体,定位为终端运行的轻量级开发辅助工具,兼容同期发布的o3o4-mini大模型,可使用自然语言指令完成代码生成、重构测试及文件操作等任务 。其技术特性包括沙盒执行环境、192k令牌上下文长度及多模态编程支持,最低内存要求4GB,支持macOSLinuxWindows 11 WSL2系统 。

一、基础环境

1.操作系统
在这里插入图片描述
2.工具版本
  • PowerShell-7.6.0
  • nvm-1.2.2
  • Node-v24.13.0
  • Npm-11.6.2
  • Codex-0.116.0
  • CC-Switch-v3.12.0

二、部署

1.安装PowerShell 7
说明:这里安装powershell7是为了解决中文乱码问题
1.1以管理员身份运行 cmd
在这里插入图片描述
1.2安装powershell7
winget install--id Microsoft.PowerShell --source winget 
在这里插入图片描述
2.安装Node.js
2.1 安装nvm
2.2 安装Node&npm

win + r 输入pwsh回车

在这里插入图片描述
nvm ls //查看当前已安装的nodejs版本 nvm list available //查看可安装的nodejs LTS版本 nvm install24.13.0 //安装nodejs24.13.0版本 node-v //查看当前安装的node版本 npm-v //查看当前安装的npm版本 
说明:从图中可以看出我已经安装过了,所以这里不再做演示
在这里插入图片描述


在这里插入图片描述
3.安装Codex
npminstall-g @openai/codex` 
说明:我这里已经安装完了,所以再次执行是更新。
在这里插入图片描述
提示:
同理claude-code也可以通过同样方式安装:
npm install -g @anthropic-ai/claude-code

4.安装CC-Switch
说明:这是一个配置api切换工具
5.配置CC-Switch
5.1获取公益api key
说明:注册就不再赘述了,直接描述登录进去后如何用




5.2选择Codex 点击“添加供应商”

注意:上方选项栏选择codex

在这里插入图片描述
说明:将之前获取的配置复制到对应的“api key” 、“auth.json (JSON) *”和 “config.toml (TOML)”内即可,官网链接:https://ai.td.ee/ ,名称图标随意
在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
5.3配置测试
在这里插入图片描述
在这里插入图片描述

三、Codex简单使用

1.Powershell7中输入codex回车
说明:cd 到你想用的工作目录输入codex回车就回在这个目录行程对应的sandbox模型沙盒
在这里插入图片描述
2.Codex CLI 常用命令说明
在这里插入图片描述
指令中文释义详细说明
/model选择使用的模型及推理算力用来切换 Codex 背后的 AI 模型(比如不同版本的代码模型),还能调整推理的「算力 / 精细度」—— 算力越高,代码生成越精准,但速度稍慢。
/init初始化创建一个AGENTS.md文件,包含Codex的使用说明「重置 / 初始化当前的会话环境」,具体行为包括:清空当前会话的上下文、重置 Codex 的沙箱环境、恢复所有指令的默认配置、保留模型选择
/fast开启 / 关闭快速模式(开启后推理最快,但消耗 2 倍套餐额度)快捷切换「极速模式」:开启后代码生成速度翻倍,但会消耗双倍的 API 额度 / 套餐时长;适合赶时间写简单代码时用。
/permissions配置 Codex 允许执行的操作权限管理 Codex 的权限边界,比如是否允许它读取本地文件、执行终端命令、修改代码文件等;新手建议先限制权限,避免误操作。
/sandbox-add-read-dir <absolute_path>允许沙箱读取指定目录(用法:/sandbox-add-read-dir <绝对路径>)给 Codex 的「沙箱环境」授权,让它能读取你指定的文件夹(必须填绝对路径,比如 /Users/xxx/project);比如想让 Codex 分析你项目里的代码,就用这个指令授权。
/experimental开启 / 关闭实验性功能切换是否使用 Codex 的测试版功能(可能不稳定,但会有新特性,比如多文件联动、代码实时调试);新手建议默认关闭,避免出问题。
/skills使用技能插件,优化 Codex 处理特定任务的表现调用 Codex 的「技能库」,比如让它用「Python 性能优化」「前端样式调试」「Shell 脚本纠错」等专属技能处理对应任务,提升针对性。
/review检查我当前的代码修改,找出问题让 Codex 审核你刚改的代码,自动识别 Bug、语法错误、逻辑漏洞、不规范的写法(比如未定义的变量、缩进问题)。
/rename重命名当前对话线程给当前的 Codex 聊天 / 操作会话起个名字(比如「用户中心接口开发」),方便后续查找历史会话,尤其适合多任务并行时用。
/resume查看历史会话直接运行 codex resume,它会打开历史会话选择器。 最近一次会话可以用 codex resume --last
3.Codex使用测试
/model //切换模型 
在这里插入图片描述
为gpt-5.3-codex选择推理级别 1.低 快速响应,推理较浅 2.中等(默认) 在日常任务中平衡速度和推理深度 3.高 为复杂问题提供更深层次的推理 4.超高 为复杂问题提供额外高的推理深度 
在这里插入图片描述
提问: 当前支持最大上下文是多少 
在这里插入图片描述
/init // 模型读取当前工作目录下的代码工程总结成一个md文档(相当于告诉模型当前的项目工程信息便于指导后续操作) 
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
提示:这里97%为上下文长度
 /resume \\ 查看问题历史记录 
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
codex resume --last\\ 恢复最近一次会话 
在这里插入图片描述

四、Codex进阶使用(接入VS Code)

1.进入扩展页面搜索codex 并安装对应插件
说明:安装第一个名为Codex – OpenAI’s coding agent
在这里插入图片描述
2.重启vscode点击gpt图标
提示:无需登录 等待加载完毕即可使用(因为前面已经配置过CC,它会自动读取配置文件)
在这里插入图片描述
3.查看监控
说明:可以看到User-Agent一列显示为codex_vscode
在这里插入图片描述
提示:个人感觉用法跟终端命令行没啥区别,但是速度明显不如轻量级的cli终端快。还是建议大家直接使用CLI终端即可!

结束语

感谢大家耐心看完本篇博客,本次 Codex CLI 安装使用分享就先告一段落啦。后续还会带来更多实用功能演示和详细讲解,觉得内容不错的话,别忘了给作者点赞、收藏、关注哦!


Read more

本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

前言 随着开源大模型越来越成熟,我们完全可以在自己电脑上本地运行AI,不联网、不上传数据、免费使用,隐私性极强。 今天这篇文章,我会一步步带你完成:Ollama + Qwen3.5:cloud(主力模型)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天AI,兼顾效果与低配置适配。 一、项目介绍 本项目实现本地离线运行阿里通义千问系列大模型(Qwen3.5:cloud 主力模型 + Qwen3:0.6b 轻量备选模型),全程不需要云端API,不需要高性能显卡,普通电脑就能跑,可根据自身电脑配置选择对应模型。 用到的工具: * Ollama:最简单的本地大模型管理工具,一键拉取、运行、管理模型 * Qwen3.5:cloud:阿里云开源的轻量高性能大语言模型,对话效果强、适配本地部署,作为主力使用

【AI大模型前沿】阿里通义千问 Qwen3-Coder:开启智能代码生成与代理式编程新时代

【AI大模型前沿】阿里通义千问 Qwen3-Coder:开启智能代码生成与代理式编程新时代

系列篇章💥 No.文章1【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术2【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流3【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破4【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源5【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型6【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题7【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破8【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元9【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型10【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合11【AI大模型前沿】Qwen2.5-Omni:

OpenClaw 实战部署:用一台旧 Surface Pro 打造 7×24 私人 AI 助手

OpenClaw 实战部署:用一台旧 Surface Pro 打造 7×24 私人 AI 助手

OpenClaw 实战部署:用一台旧 Surface Pro 打造 7×24 私人 AI 助手 OpenClaw 是 2026 年最火的开源 AI 助手平台之一——它不只是一个聊天机器人框架,而是一个完整的 AI Agent 操作系统:支持飞书 / Web / IM 多渠道接入,内置工具调用(function calling)、技能系统(Skills)、记忆管理、多 Agent 协作,还能接入任意 OpenAI 兼容的大模型。 我手上有一台 2017 年的 Surface Pro 5,Windows 已经卡得没法用。与其吃灰,不如装个 Ubuntu 把它变成一台低功耗的

2026必备10个降AIGC工具,本科生必看!

2026必备10个降AIGC工具,本科生必看!

2026必备10个降AIGC工具,本科生必看! AI降重工具,让你的论文告别“AI味” 在当前学术写作中,随着AI技术的广泛应用,越来越多的学生和研究人员开始关注论文中的AIGC率问题。一篇论文如果被检测出AI痕迹过重,不仅会影响查重结果,还可能被判定为学术不端行为。因此,如何有效降低AIGC率、去除AI痕迹,并且保持语义通顺,成为众多学生必须面对的挑战。 而AI降重工具的出现,正是为了解决这一难题。这些工具通过智能算法对文本进行深度分析,识别出AI生成内容的特征,并进行合理的修改与优化。无论是调整句式结构、替换同义词,还是重新组织段落逻辑,都能在不影响原意的前提下,显著降低论文的AIGC率。同时,这些工具还能帮助用户提升语言表达的自然度,让论文更符合学术规范。 工具名称主要功能适用场景千笔强力去除AI痕迹、保语义降重AI率过高急需降重云笔AI多模式降重初稿快速处理锐智 AI综合查重与降重定稿前自查文途AI操作简单片段修改降重鸟同义词替换小幅度修改笔杆在线写作辅助辅助润色维普官方查重最终检测万方数据库查重数据对比Turnitin国际通用检测留学生降重ChatGPT辅助润色