AI三分钟第1弹|3分钟学会给Cursor配置代理

AI三分钟第1弹|3分钟学会给Cursor配置代理

文章目录

什么是AI三分钟?

《AI三分钟》专栏旨在提供短小精悍的AI工具使用技巧或者知识

在这个时间碎片化、知识碎片化的时代

用最精炼的语言和最生动的故事

3分钟完成一项干货的科普
专栏封面

正文

拿去用

方法一:直接用博主的配置文件(推荐)

  1. 打开Cursor,按 Cmd + Shift + P(Mac)或 Ctrl + Shift + P(Windows)打开检索框
  2. 重启Cursor使代理设置生效
  3. 点击下图中的首选项,选择Cursor首选项配置,进入network(网络管理)页面

将HTTP协议改成HTTP1.1

image-20260212134912038

粘贴博主编辑好的配置(全部覆盖,覆盖前请自行备份之前的用户设置)

{ "http.proxy": "http://127.0.0.1:7890", // 你的魔法软件代理地址 "http.proxySupport": "override", "http.proxyStrictSSL": false, "http.noProxy": [], "git.enableSmartCommit": true, "explorer.confirmDelete": false, "cursor.composer.shouldChimeAfterChatFinishes": true, "workbench.colorTheme": "Solarized Light", "cursor.general.disableHttp2": true } 

在检索框里搜索“User”,并打开搜索结果中的“Open User Settings(JSON)”

image-20260212134442221

image-20260212135228436

方法二:在 Cursor 设置里填代理

  1. 打开 Cursor,按 Cmd + ,(Mac)或 Ctrl + ,(Windows)打开设置
  2. 搜索框输入 proxy
  3. Http: Proxy 中填入你的代理地址,例如:http://127.0.0.1:7890socks5://127.0.0.1:7890(需自备魔法软件并允许局域网连接)
  4. 若代理需要校验 HTTPS,可勾选 Http: Proxy Strict SSL 或按需关闭
  5. 重启 Cursor 使代理生效
  6. 点击下图中的首选项,选择Cursor首选项配置,进入network(网络管理)页面
  7. 将HTTP协议改成HTTP1.1

image-20260212133703005
image-20260212134912038
image-20260212135228436

如何验证配置是否成功?

首先不要使用Cursor的网络诊断工具

因为可能会出现明明没有配置成功

但是诊断工具却显示成功

并且能使用auto模型(走的还是常规网络,用不了很多模型)

最好的验证方式就是直接和Agent聊天,手动切换到拥有魔法才能聊天的模型(博主用的是Sonnet4.5测试)

  1. 选择claude系列(opus、sonnet、haiku)、gpt系列(GPT-5.3 Codex)、谷歌系列(Gemini 3 Pro),这些都是需要魔法才能使用的模型
  2. 和他们对话,任何话题都可以,只要正常响应就是成功了(如下图)

关闭auto后弹出选择模型的列表

image-20260212140626192
image-20260212140323002

只是寻找解决方案的朋友看到这里就足够了,后文是知识点讲解
讲清楚

Cursor 基于 VS Code(Electron)

和 VS Code 一样,通过 Http: Proxy 控制发往网络的请求走哪条通道

你在设置里填的 http://...socks5://... 会被用于拉模型、调 API、检查更新等

所以填对一次即可全局生效

环境变量 HTTP_PROXY / HTTPS_PROXY 是很多命令行和 Electron 应用的通用约定

在「先设变量再启动」的场景下同样有效

系统代理则依赖系统 API,有时只对部分请求生效

所以遇到问题时,优先用 Cursor 自带代理设置更稳

可以把 Cursor 想象成「要出门的人」、代理是「小区门卫」:你填的 Http: Proxy 就是告诉 Cursor「以后出门都先经过这个门卫」,门卫再帮你转发到外网;环境变量则是你在「出门前」先跟整台电脑说好「所有从这台机器出去的请求都走门卫」,Cursor 启动时就会继承这句话;系统代理则是「小区统一规定」,有的程序听、有的不听,不如自己当面说清楚稳当。

Cursor 代理配置

设置内填 Http Proxy

打开设置 Cmd/Ctrl + ,

搜索 proxy

填代理地址

重启生效

环境变量

HTTP_PROXY

HTTPS_PROXY

先设再启动 Cursor

系统代理

部分请求跟随

不稳时改用设置内填


记住它
  • Http: Proxy:在 Cursor 设置里填一次,所有拉模型、调 API、更新都走这条通道。
  • 环境变量 HTTP_PROXY / HTTPS_PROXY:在启动 Cursor 前设好,适合脚本或全局走代理。
  • 系统代理:依赖系统 API,只对部分请求生效,不稳时优先用设置内显式填写。
  • 本地代理地址:常见为 http://127.0.0.1:端口socks5://127.0.0.1:端口,端口以你本地代理软件为准(如 7890、1080)。

结语

点关注不迷路,UP带你上高速

引用

Cursor 官方文档

版权信息

© 2026 老邋遢(笔名) 版权所有

原创内容,转载请注明出处

Read more

从指令到执行:OpenClaw 底层原理深度拆解 —— 一台真正会 “动手” 的本地 AI 引擎

从指令到执行:OpenClaw 底层原理深度拆解 —— 一台真正会 “动手” 的本地 AI 引擎

前言 当我们对 OpenClaw 发出一句自然语言指令:“把桌面所有超过一周的截图归档到 D 盘,再把今天的工作记录整理成 Markdown 并推送到 GitHub。” 传统 AI 会给出步骤,而 OpenClaw 会直接做完。 绝大多数文章只告诉你 OpenClaw “能做什么”,却极少解释它到底是如何做到的: * 一段文字,是怎么变成可执行的系统操作? * 它凭什么能跨 IM、跨平台、跨模型统一工作? * 高权限执行,底层是如何保证安全与可控? * 本地运行、隐私闭环,在架构上究竟如何实现? 本文不讲功能、不讲教程,只讲原理。从意图解析、任务编排、执行引擎、权限沙箱到多模态交互,带你从 0 到 1 理解 OpenClaw 的技术本质:它不是一个聊天机器人,而是一套本地优先、可解释、可审计、

VibeVoice能否与Stable Diffusion联动生成视听一体内容?

VibeVoice与Stable Diffusion:能否共筑视听一体的内容生成新范式? 在AI内容创作的浪潮中,我们早已习惯“一张图”或“一段语音”的独立生成。但真正的沉浸式体验,从来都是声画交织的结果——就像电影,不是单纯的画面堆叠,也不是孤立的配音朗读,而是节奏、情绪、语调与构图、光影、动作的高度协同。 如今,随着VibeVoice-WEB-UI和Stable Diffusion这两项技术的成熟,一个大胆设想正变得触手可及:能否让同一段脚本,同时驱动高质量语音与匹配画面的生成,实现真正意义上的端到端视听一体化内容生产? 这不仅是效率的跃升,更是一次创作范式的变革。而关键,就在于如何打通“听觉语境”与“视觉语义”之间的鸿沟。 超低帧率语音表示:用7.5Hz重构语音建模逻辑 传统语音合成系统往往依赖高帧率特征(如每秒50帧的梅尔频谱),以确保音质细腻。但这带来了沉重的计算负担,尤其在处理长文本时,显存消耗呈线性增长,极易引发延迟、失真甚至中断。 VibeVoice 的突破,恰恰始于对这一底层逻辑的颠覆:它采用约 7.

Mixtral 8X7B Instruct v0.1 llamafile部署与应用实战指南

Mixtral 8X7B Instruct v0.1 llamafile部署与应用实战指南 【免费下载链接】Mixtral-8x7B-Instruct-v0.1-llamafile 项目地址: https://ai.gitcode.com/hf_mirrors/Mozilla/Mixtral-8x7B-Instruct-v0.1-llamafile 模型概述 Mixtral 8X7B Instruct v0.1是Mistral AI开发的稀疏混合专家模型,采用8个7B参数专家子模型的创新架构设计。该模型在每次推理时仅激活2个专家,在保持7B模型推理速度的同时实现了接近70B模型的性能表现,特别适合资源受限环境下的高性能部署。 核心特性 * 混合专家架构:MoE设计,资源利用效率极高 * 多语言支持:原生支持英语、法语、德语、意大利语、西班牙语 * 量化友好:支持从2-bit到8-bit的全系列量化格式 * 兼容llama.cpp、KoboldCpp、LM Studio等主流部署工具 环境准备与模型获取 系统要求 部署场景最低配置推荐配置纯CPU推理32G

Whisper语音识别避坑指南:从安装到部署常见问题全解

Whisper语音识别避坑指南:从安装到部署常见问题全解 你是不是也遇到过这样的情况:满怀期待地部署Whisper语音识别服务,结果卡在FFmpeg找不到、GPU显存爆了、端口被占用……别急,这篇文章就是为你准备的。我们不讲大道理,只聊实战中踩过的坑和对应的解决方案。 本文基于 Whisper-large-v3 多语言语音识别 Web 服务镜像(由113小贝构建),结合真实部署经验,手把手带你绕开那些让人抓狂的“小问题”。无论你是第一次接触语音识别,还是已经折腾了一整天却始终无法启动服务,这篇避坑指南都能帮你快速上路。 1. 环境准备:别让基础配置拖后腿 1.1 硬件要求不是“建议”,是底线 先说清楚:Whisper large-v3 模型对硬件有硬性要求,不是“推荐”那么简单。这个模型参数量高达1.5B,加载一次就要吃掉近3GB显存,推理过程还会持续占用资源。 资源最低要求推荐配置GPURTX 3090 (24GB)RTX 4090 D (23GB+)内存16GB32GB存储10GB可用空间SSD