Visual Studio 2026中Github Copilot的大模型

在 Copilot Chat 中开始使用 AI 模型

Visual Studio 17.14 中,Visual Studio 里的 GitHub Copilot 默认使用 GPT-4.1(之前是 GPT-4o)。GPT-4.1 提供更快的响应速度、更高质量的代码建议,以及更高的编码效率。

不过,你并不局限于使用默认模型,你也可以选择其他模型,或者添加自己的模型,根据工作流程选择最合适的 AI 模型。

可用模型

在模型选择器中,你可以选择更多模型,包括:

  • Claude Sonnet 4
  • Claude Opus 4
  • GPT-5
  • Claude Sonnet 3.5
  • Claude 3.7(支持思考和非思考模式)
  • OpenAI o3-mini
  • Gemini 2.0 Flash
  • Gemini 2.5 Pro
  • GPT-5 mini

模型选择的改进

  • 持久选择:你选择的模型会在不同聊天线程中保持。
  • 直接启用模型:如果某个模型在你的订阅计划中可用但未启用,模型选择器会提示你激活它。
  • 模型可用性取决于你的 Copilot 订阅及各模型的当前状态。对于 Copilot EnterpriseBusiness 用户,管理员需要在 Copilot 设置中启用 Preview 策略后,模型才能在 Visual Studio 中使用。

自带模型(BYOM,Bring Your Own Model)

你可以通过提供 API Key 的方式,将自己的语言模型接入 Copilot Chat,支持的提供商包括 Anthropic、Google 和 OpenAI。这样可以让你配置自定义模型以匹配工作流程或评估新模型能力。

优势

  • 扩展模型选择范围,包括新模型或实验模型。
  • 满足基础设施、安全或性能要求。
  • 直接控制和监控 API 使用情况。
  • 可以在内置模型和自定义模型之间轻松切换。

添加 API Key 的步骤

  1. 在聊天界面打开模型选择器下拉菜单。
  2. 选择提供商(目前支持 OpenAI、Anthropic、Google)。
  3. 输入 API Key。
  4. 选择以下选项之一:
    • 默认列表中的标准模型
    • 提供商支持的任何模型,即使默认列表中未显示
  5. 确认自定义模型出现在模型选择器中。
  6. 在聊天中开始使用,自定义模型即可被 Copilot Chat 调用。

限制与注意事项

  • 自定义模型仅在 Visual Studio 的 Copilot Chat 中支持,不影响代码补全或其他 AI 功能(如生成提交信息)。
  • 模型能力取决于提供商,部分模型可能不支持工具使用、视觉输入或高级推理功能。
  • 嵌入、意图检测、仓库索引等服务可能仍使用 Copilot API。
  • 使用自定义模型时,输出直接来自提供商,可能绕过 Copilot 的 AI 责任过滤。
  • Copilot Business 或 Enterprise 用户不支持自定义模型。

Read more

字节跳动AI IDE:Trae 完全上手指南——从零安装到熟练使用,开启AI驱动开发新范式

字节跳动AI IDE:Trae 完全上手指南——从零安装到熟练使用,开启AI驱动开发新范式

目录 * 前言:当IDE进化为智能体 * 1.初识Trae * 1.1 Trae是什么? * 1.2 Trae的核心优势 * 1.3 谁适合使用Trae? * 2.安装与初始配置 * 2.1 支持的操作系统 * 2.2 下载与安装步骤 * 2.3 验证安装成功 * 3.界面导航(五分钟熟悉布局) * 3.1 核心区域功能说明 * 3.2 常用快捷键速查 * 4.核心AI功能详解 * 4.1 Chat模式:随时提问的编程助手 * 4.2 Builder模式:自然语言生成完整项目 * 4.2.1 实战案例:做一个待办事项应用 * 4.

【企业级】RuoYi-Vue-Plus AI 智能开发助手 | Claude Code + Codex 双引擎 | 40+ 专业技能包 | 10 大快捷命令 | 开箱即用

【企业级】RuoYi-Vue-Plus AI 智能开发助手 | Claude Code + Codex 双引擎 | 40+ 专业技能包 | 10 大快捷命令 | 开箱即用

RuoYi-Vue-Plus AI 智能编程助手 商品简介 基于 RuoYi-Vue-Plus 5.X 企业级后端框架,深度定制的 AI 智能编程助手配置包。支持 Claude Code 和 OpenAI Codex 双 AI 引擎,内置 40+ 专业开发技能、10 大快捷命令、智能钩子系统,让 AI 真正理解您的项目架构和开发规范,实现 10 倍开发效率提升。 核心亮点 🚀 双 AI 引擎支持 引擎配置目录说明Claude Code.claude/Anthropic Claude 官方 CLI 工具配置OpenAI Codex.codex/OpenAI Codex CLI

UnityMCP+Claude+VSCode,构建最强AI游戏开发环境

UnityMCP+Claude+VSCode,构建最强AI游戏开发环境

* 前言 * 一、UnityMCP+Claude+VSCode,构建最强AI 游戏开发环境 * 1.1 介绍 * 1.2 使用说明及下载 * 二、VSCode配置 * 2.1 连接UnityMCP * 2.2 在VSCode中添加插件 * 2.3 Claude安装 * 2.4 VSCode MCP配置 * 2.5 使用Claude开发功能 * 三、相关问题 * 总结 前言 * 本篇文章来介绍使用 UnityMCP+Claude+VSCode,打造一个更智能、高效的游戏开发工作流。 * 借助MCP工具,Claude可以直接与Unity编辑器进行双向指令交互,开发者则可以直接使用自然语言进行Unity游戏开发。 * 这一组合充分利用了AI的代码生成、问题诊断与创意辅助能力,极大提升了Unity项目的开发效率与质量。 一、UnityMCP+Claude+

端侧AI杀疯了:手机本地跑Qwen3.5,离线也能用,延迟低到离谱

端侧AI杀疯了:手机本地跑Qwen3.5,离线也能用,延迟低到离谱

文章目录 * 一、手机里的"迷你大脑"突然觉醒了 * 二、云端大模型那些让人抓狂的痛点 * 三、Qwen3.5小模型家族:不是缩水,是浓缩 * 四、安卓手机实战:Termux+llama.cpp手把手教学 * 4.1 准备工作:给你的手机装个"Linux系统" * 4.2 编译llama.cpp:打造推理引擎 * 4.3 下载模型:pick你的"大脑" * 4.4 启动模型:见证奇迹的时刻 * 五、iOS用户别急,MLX方案更优雅 * 六、性能优化:让你的手机AI更聪明 * 七、这玩意儿到底能干啥?