Windows安装原生Codex CLI 让你拥有更强力的AI代码助手!【支持GPT5.4、GPT5.3-codex】

Windows安装原生Codex CLI 让你拥有更强力的AI代码助手!【支持GPT5.4、GPT5.3-codex】

文章目录

前言

Codex CLIOpenAI于2025年4月17日发布的开源编程智能体,定位为终端运行的轻量级开发辅助工具,兼容同期发布的o3o4-mini大模型,可使用自然语言指令完成代码生成、重构测试及文件操作等任务 。其技术特性包括沙盒执行环境、192k令牌上下文长度及多模态编程支持,最低内存要求4GB,支持macOSLinuxWindows 11 WSL2系统 。

一、基础环境

1.操作系统
在这里插入图片描述
2.工具版本
  • PowerShell-7.6.0
  • nvm-1.2.2
  • Node-v24.13.0
  • Npm-11.6.2
  • Codex-0.116.0
  • CC-Switch-v3.12.0

二、部署

1.安装PowerShell 7
说明:这里安装powershell7是为了解决中文乱码问题
1.1以管理员身份运行 cmd
在这里插入图片描述
1.2安装powershell7
winget install--id Microsoft.PowerShell --source winget 
在这里插入图片描述
2.安装Node.js
2.1 安装nvm
2.2 安装Node&npm

win + r 输入pwsh回车

在这里插入图片描述
nvm ls //查看当前已安装的nodejs版本 nvm list available //查看可安装的nodejs LTS版本 nvm install24.13.0 //安装nodejs24.13.0版本 node-v //查看当前安装的node版本 npm-v //查看当前安装的npm版本 
说明:从图中可以看出我已经安装过了,所以这里不再做演示
在这里插入图片描述


在这里插入图片描述
3.安装Codex
npminstall-g @openai/codex` 
说明:我这里已经安装完了,所以再次执行是更新。
在这里插入图片描述
提示:
同理claude-code也可以通过同样方式安装:
npm install -g @anthropic-ai/claude-code

4.安装CC-Switch
说明:这是一个配置api切换工具
5.配置CC-Switch
5.1获取公益api key
说明:注册就不再赘述了,直接描述登录进去后如何用




5.2选择Codex 点击“添加供应商”

注意:上方选项栏选择codex

在这里插入图片描述
说明:将之前获取的配置复制到对应的“api key” 、“auth.json (JSON) *”和 “config.toml (TOML)”内即可,官网链接:https://ai.td.ee/ ,名称图标随意
在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
5.3配置测试
在这里插入图片描述
在这里插入图片描述

三、Codex简单使用

1.Powershell7中输入codex回车
说明:cd 到你想用的工作目录输入codex回车就回在这个目录行程对应的sandbox模型沙盒
在这里插入图片描述
2.Codex CLI 常用命令说明
在这里插入图片描述
指令中文释义详细说明
/model选择使用的模型及推理算力用来切换 Codex 背后的 AI 模型(比如不同版本的代码模型),还能调整推理的「算力 / 精细度」—— 算力越高,代码生成越精准,但速度稍慢。
/init初始化创建一个AGENTS.md文件,包含Codex的使用说明「重置 / 初始化当前的会话环境」,具体行为包括:清空当前会话的上下文、重置 Codex 的沙箱环境、恢复所有指令的默认配置、保留模型选择
/fast开启 / 关闭快速模式(开启后推理最快,但消耗 2 倍套餐额度)快捷切换「极速模式」:开启后代码生成速度翻倍,但会消耗双倍的 API 额度 / 套餐时长;适合赶时间写简单代码时用。
/permissions配置 Codex 允许执行的操作权限管理 Codex 的权限边界,比如是否允许它读取本地文件、执行终端命令、修改代码文件等;新手建议先限制权限,避免误操作。
/sandbox-add-read-dir <absolute_path>允许沙箱读取指定目录(用法:/sandbox-add-read-dir <绝对路径>)给 Codex 的「沙箱环境」授权,让它能读取你指定的文件夹(必须填绝对路径,比如 /Users/xxx/project);比如想让 Codex 分析你项目里的代码,就用这个指令授权。
/experimental开启 / 关闭实验性功能切换是否使用 Codex 的测试版功能(可能不稳定,但会有新特性,比如多文件联动、代码实时调试);新手建议默认关闭,避免出问题。
/skills使用技能插件,优化 Codex 处理特定任务的表现调用 Codex 的「技能库」,比如让它用「Python 性能优化」「前端样式调试」「Shell 脚本纠错」等专属技能处理对应任务,提升针对性。
/review检查我当前的代码修改,找出问题让 Codex 审核你刚改的代码,自动识别 Bug、语法错误、逻辑漏洞、不规范的写法(比如未定义的变量、缩进问题)。
/rename重命名当前对话线程给当前的 Codex 聊天 / 操作会话起个名字(比如「用户中心接口开发」),方便后续查找历史会话,尤其适合多任务并行时用。
/resume查看历史会话直接运行 codex resume,它会打开历史会话选择器。 最近一次会话可以用 codex resume --last
3.Codex使用测试
/model //切换模型 
在这里插入图片描述
为gpt-5.3-codex选择推理级别 1.低 快速响应,推理较浅 2.中等(默认) 在日常任务中平衡速度和推理深度 3.高 为复杂问题提供更深层次的推理 4.超高 为复杂问题提供额外高的推理深度 
在这里插入图片描述
提问: 当前支持最大上下文是多少 
在这里插入图片描述
/init // 模型读取当前工作目录下的代码工程总结成一个md文档(相当于告诉模型当前的项目工程信息便于指导后续操作) 
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
提示:这里97%为上下文长度
 /resume \\ 查看问题历史记录 
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
codex resume --last\\ 恢复最近一次会话 
在这里插入图片描述

四、Codex进阶使用(接入VS Code)

1.进入扩展页面搜索codex 并安装对应插件
说明:安装第一个名为Codex – OpenAI’s coding agent
在这里插入图片描述
2.重启vscode点击gpt图标
提示:无需登录 等待加载完毕即可使用(因为前面已经配置过CC,它会自动读取配置文件)
在这里插入图片描述
3.查看监控
说明:可以看到User-Agent一列显示为codex_vscode
在这里插入图片描述
提示:个人感觉用法跟终端命令行没啥区别,但是速度明显不如轻量级的cli终端快。还是建议大家直接使用CLI终端即可!

结束语

感谢大家耐心看完本篇博客,本次 Codex CLI 安装使用分享就先告一段落啦。后续还会带来更多实用功能演示和详细讲解,觉得内容不错的话,别忘了给作者点赞、收藏、关注哦!


Read more

RunningHub:AIGC创作平台深度解析

RunningHub:AIGC创作平台深度解析

一、平台核心定位与价值 RunningHub是全球首个基于开源生态的图形音视频AIGC应用共创平台,通过模块化节点系统与云端算力整合,将设计、视频制作、数字内容生成等复杂流程转化为"搭积木式"操作。平台已覆盖全球144个国家用户,日均处理超百万次创作请求,彻底重构了传统内容生产模式。 核心价值 1. 设计平权化 将专业级创作能力赋予普通用户,无需PS/Sketch/AE等软件基础,通过7000+功能节点自由组合即可生成商业级作品。 2. 成本重构 将传统设计中的人力成本(约200-500元/张图)转化为算力成本(0.5-3元/次),降幅达99%。 3. 生态闭环 支持开发者上传节点/工作流并获取收益,形成"创意-开发-复用-变现"的可持续经济模型。 二、技术架构与核心优势 1. 模块化节点系统 通过ComfyUI开源架构深度优化,将AI创作拆解为可拖拽的"原子单元&

手把手教你在AutoDL上用LLaMA-Factory微调GPT-OSS-20B模型(LoRA版)

手把手教你在AutoDL上用LLaMA-Factory微调GPT-OSS-20B模型(LoRA版)

本教程详细讲解如何在AutoDL云GPU上使用LLaMA-Factory框架微调GPT-OSS-20B大语言模型,包含完整的环境配置、训练流程、权重合并以及vLLM推理部署全流程。文章最后还分享了笔者踩过的坑和解决方案,建议收藏备用! 前言 最近在做一个智能采购相关的项目,需要对大语言模型进行微调,让它能够更好地理解采购场景的业务需求。在对比了多种方案后,最终选择了LLaMA-Factory + LoRA的组合,原因主要有三点: 1. 开箱即用:LLaMA-Factory提供了非常完善的训练框架,支持多种微调方式 2. 显存友好:LoRA相比全参数微调,显存占用大幅降低 3. 效果不错:在采购对话场景下,LoRA微调已经能够满足业务需求 本文将完整记录从环境配置到模型部署的全过程,希望能够帮助到有同样需求的小伙伴。 一、方案概览 在开始之前,先来看一下整体的技術方案: 组件选择说明微调框架LLaMA-Factory 0.9.4开源的大模型训练框架基础模型GPT-OSS-20B200亿参数的MoE大模型微调方式LoRA低秩适配,显存友好推理引擎vLLM高性能推

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

一文通透OpenVLA——在Prismatic VLM(SigLIP、DinoV2、Llama 2)的架构上:基于“下一个token预测技术”预测离散化动作

前言 当对机器人动作策略的预测越来越成熟稳定之后(比如ACT、比如扩散策略diffusion policy),为了让机器人可以拥有更好的泛化能力,比较典型的途径之一便是基于预训练过的大语言模型中的广泛知识,然后加一个policy head(当然,一开始背后的模型比较简单,比如有用LSTM或MLP——RoboFlamingo) 再之后,便出来了越来越多成熟稳定的专门的VLA模型,比如OpenVLA,再比如近期介绍过过的π0——用于通用机器人控制的VLA模型:一套框架控制7种机械臂(基于PaliGemma和流匹配的3B模型) 1. π0的意义在于,首次用同一套策略/算法操作不同机器人/机械臂,这种基于机器人大模型的「预训练-微调」模式,很快会越来越多(犹如此前大模型革命NLP 其次CV等各模态,目前到了robot领域),算是代表了通用机器人的核心发展方向 2. 且π0 比英伟达的HOVER早一点,当然,同时期的RDT GR2也有这个潜力的,期待这两 后续的更新 一个多月前(本文首发于25年1月),有朋友曾说,一个月内,π0 会开源来着,当时虽然觉得不太可能,但还是抱着期待,可还

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

本文链接地址 :https://blog.ZEEKLOG.net/weixin_47681965/article/details/158503719?spm=1001.2014.3001.5502, 转载请注明出处。 提到提示词注入(Prompt Injection),大家的第一反应往往是精心构造的文本越狱指令。 而在图生图任务中,输入图像在本质上扮演了视觉提示词的角色,与文本指令共同指导生成模型。 基于这一视角,本文展示针对视觉提示词的注入攻击:通过PGD对抗攻击算法对输入图像进行像素级微调,使其生成的违规图像能够绕过开源大模型的NSFW安全检测机制。 临近毕业,感觉市场对提示词注入比较感兴趣,因本人读博期间一直研究对抗攻击算法,所以决定尝试用对抗攻击的思路完成提示词注入攻击,误导开源模型生成违规图像。 完整代码链接:https://github.com/YujiangLi0v0/Injection_Attack_Inpainting.git 目录 * 一、 NSFW防线:开源模型的安全过滤机制 * 二、 攻击场景定义 (Threat Model) * 三、