Windows 使用 Codex 一直“正在思考”?一招解决 AI 工具代理问题(附一键切换脚本)

📚 目录

一、问题背景:Codex 一直“正在思考”却没有回答

二、第一步:查看本机代理端口

三、第二步:测试代理是否可用

四、第三步:给 Codex App 配置代理

五、让 Codex 代理配置生效

六、验证代理是否生效

七、如何取消代理配置

八、代理配置是否会影响国内软件

九、开发者推荐的代理配置方式

十、完整流程总结

一、问题背景

最近在 Windows 上使用 Codex 时遇到了一个很奇怪的问题:

输入问题后,界面一直显示:

正在思考

但是 没有任何回答

最开始以为是:

  • Codex Bug
  • API Key 问题
  • 软件配置错误

后来才发现,其实是 网络问题


二、问题原因

Codex 需要访问 OpenAI API:

https://api.openai.com

但在国内网络环境下:

无法直接访问

所以必须通过 代理访问


三、排查过程

一开始尝试了很多方法。

方法1:开启 Windows 系统代理

设置 → 网络和 Internet → 代理

开启系统代理。

结果:

Codex 仍然无法联网

原因:

很多 Electron / Node 应用 不会读取 Windows 系统代理


方法2:修改 Codex 配置

在:

C:\Users\用户名\.codex\config.toml 

加入:

proxy = "http://127.0.0.1:1099"

结果:

仍然不生效

方法3:设置环境变量

尝试使用:

HTTP_PROXY

HTTPS_PROXY

例如:

HTTP_PROXY=http://127.0.0.1:1099 HTTPS_PROXY=http://127.0.0.1:1099

确实可以让 Codex 联网。

但是出现一个新问题:

国内软件也走代理

例如:

  • 微信
  • QQ
  • 浏览器
  • 国内 API

都会受到影响。


四、最终解决方案

最终我使用了一个 开发者常用的方法

通过 环境变量 + 一键脚本切换代理

优点:

✔ AI 工具可以联网
✔ 国内软件不受影响
✔ 一键开启 / 关闭
✔ 简单稳定


五、脚本方案

我写了两个脚本:

proxy-toggle.bat

proxy-check.bat

六、脚本1:一键开关代理

文件名:

proxy-toggle.bat

代码:

@echo off chcp 65001 >nul if "%HTTP_PROXY%"=="" ( setx HTTP_PROXY http://127.0.0.1:1099 >nul setx HTTPS_PROXY http://127.0.0.1:1099 >nul color 0A echo. echo ============================== echo 代理已开启 echo ============================== echo. echo 代理地址: http://127.0.0.1:1099 ) else ( setx HTTP_PROXY "" >nul setx HTTPS_PROXY "" >nul color 0C echo. echo ============================== echo 代理已关闭 echo ============================== ) echo. echo 请关闭并重新打开 Codex / Cursor / VSCode 等软件。 echo. echo 请按任意键继续... pause >nul color 07

功能:

如果没开代理 → 自动开启

如果已开代理 → 自动关闭

七、脚本2:查看代理状态

文件名:

proxy-check.bat

代码:

@echo off chcp 65001 >nul if "%HTTP_PROXY%"=="" ( color 0C echo. echo ============================== echo 当前未开启代理 echo ============================== ) else ( color 0A echo. echo ============================== echo 当前已开启代理 echo ============================== ) echo. echo 请按任意键继续... pause >nul color 07

八、使用方法

把两个脚本放到桌面:

proxy-toggle.bat

proxy-check.bat

开启代理

双击:

proxy-toggle.bat

然后重新打开:

Codex

Cursor

VSCode

npm

pip

关闭代理

再次双击:

proxy-toggle.bat

查看代理状态

双击:

proxy-check.bat

九、适用工具

这个方法适用于:

Codex

Cursor

VSCode

npm

pip

git

curl

基本所有 开发工具都会读取 HTTP_PROXY 环境变量


十、总结

这个方案的优点:

✔ 一键切换代理
✔ 不影响国内软件
✔ 稳定可靠
✔ 开发者通用方案

如果你也遇到:

Codex 无法联网

AI 一直正在思考

可以试试这个方法。

Read more

pywebview:用Python+Web技术打造轻量级桌面应用!

pywebview:用Python+Web技术打造轻量级桌面应用!

✍️作者:唐叔在学习 💡专栏:唐叔学python ✨关键词:Python桌面开发、pywebview教程、WebView应用、前后端分离、JS与Python交互、桌面应用打包、Electron替代方案、Python GUI 大家好,我是唐叔。今天我们来聊聊一个非常轻量且强大的Python库——pywebview。如果你曾经为开发一个简单的桌面应用而纠结于Electron的笨重、PyQt的复杂,或是Tkinter的界面简陋,那pywebview或许正是你一直在找的解决方案。 文章目录 * 一、介绍 * 二、安装 * 安装全量版本 * 安装指定环境版本 * 三、使用入门 * 3.1 基本使用 * 3.2 应用程序架构 * 纯网络服务架构 * 无服务器架构 * 3.3 JS与Python交互 * 四、应用打包 * 五、常见使用场景 * 5.1 文件操作 * 文件下载

Webstorm中的编码辅助AI

Webstorm中的编码辅助AI

Webstorm中的编码辅助AI * MarsCode * MarsCode在WebStorm中的使用 * 安装方式 * 核心功能 * 其它AI插件 MarsCode MarsCode 是一款由 字节跳动(ByteDance) 推出的 AI 编程助手,类似于 GitHub Copilot,提供智能代码补全、生成和优化功能。目前,它主要支持 VS Code 和 JetBrains 系列 IDE(如 WebStorm),但需要手动安装插件。 MarsCode在WebStorm中的使用 安装方式 通过Marketplace安装 1. 在 WebStorm 的 Settings > Plugins 中搜索 MarsCode。 直接安装并重启 IDE。 核心功能 1. 智能代码补全:基于上下文预测代码,支持多种语言 2.

Spring AI 1.1.2 集成 MCP(Model Context Protocol)实战:以 Tavily 搜索为例

本文分享在 Spring Boot 3.5 + Spring AI 1.1.2 中集成 MCP Client 的完整落地方案。通过连接 Tavily MCP Server,让大模型在对话中自动调用搜索工具获取实时信息,同时保持 Spring Boot 体系内的工程化体验。 一、MCP 是什么?为什么需要它 MCP(Model Context Protocol) 是一种让 LLM 与外部工具/资源交互的标准化协议: * MCP Server:将工具能力(搜索、查库、读文件等)以统一格式暴露 * MCP Client:连接 Server、拉取工具定义,并在需要时转发工具调用 * LLM(通过

[AI]从零开始的DeepSeek本地部署及本地API调用教程

[AI]从零开始的DeepSeek本地部署及本地API调用教程

一、前言         最近DeepSeek也是比较火,我也去学习了一下如何本都部署DeepSeek,目前主要方法有两种吧,一种是自己拉取开发环境并且运行模型,另一种则是使用框架来运行模型。使用框架运行模型也是目前部署DeepSeek最简单的方法。那么本次教程,就来教大家如何使用本地的模型框架来运行DeepSeek模型并且调用这个模型的API,如果你准备好了,那就让我们开始吧! 二、使用的框架及硬件要求         本次教程中,会为大家介绍使用Ollama和LM Studio两种框架运行DeepSeek模型,这两款框架在一些地方也各有自己的优缺点,具体的大家可以自行体会。之前的教程中已经为大家演示过如何安装Ollama并且运行llama模型。但是没有教大家如何修改Ollama的路径,本次教程会将这一空缺补齐。         现在来讲讲硬件要求,首先要明确一点的是要运行大模型需要比较高的算力,所以,尽量不要使用太老的电脑进行尝试。对于一些被量化过的模型,比如1.5B参数的模型甚至更小的模型,使用CPU就可以勉强运行。对于一些较大的模型,比如4B,6B,8B的模型,可能就