VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景

VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!!
(Github Copilot Chat 中使用OpenAI兼容的自定义模型。)

在这里插入图片描述

🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能:
“实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。”

在这里插入图片描述

🤗 官方解决方案:安装VSCode扩展支持

你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot

在这里插入图片描述

通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek V3.2、GLM 4.6 等。

✨ 特色功能

  • 支持几乎所有与 OpenAI 兼容的供应商,例如 ModelScope、SiliconFlow、DeepSeek…
  • 支持视觉模型。
  • 为聊天请求提供额外的配置选项。
  • 支持同时配置来自多个供应商的模型,自动管理 API 密钥而无需反复切换。
  • 支持为同一模型 ID 定义多种配置(例如为 GLM-4.6 启用/禁用思考功能)。Supports almost all

支持控制模型在聊天界面中显示思考与推理内容。

thinkingPartDemo

⚡ 快速开始

  1. 安装“OAI Compatible Provider for Copilot”扩展。
  2. 打开 VS Code 设置,配置 oaicopilot.baseUrloaicopilot.models
  3. 打开 Github Copilot聊天界面。
  4. 点击模型选择器,选择“管理模型…”。
  5. 选择“OAI Compatible”提供商。
  6. 输入您的 API 密钥 —— 它将被本地保存。
  7. 选择您希望添加到模型选择器中的模型。

Settings Example

"oaicopilot.baseUrl":"https://api-inference.modelscope.cn/v1","oaicopilot.models":[{"id":"Qwen/Qwen3-Coder-480B-A35B-Instruct","owned_by":"modelscope","context_length":256000,"max_tokens":8192,"temperature":0,"top_p":1}]

Read more

Windows 11:如何轻松安装或卸载 Copilot 应用(多种方法)

Windows 11:如何轻松安装或卸载 Copilot 应用(多种方法)

起初,Copilot 是一个与 Windows 11 和 Windows 10 系统紧密结合的内置 AI 助手,能够通过回答问题、调整系统设置等功能来提高你的工作效率。 但从 Windows 11 24H2 开始,Copilot 功能已经从系统中剥离出来,成了一个基于 Microsoft Edge 的独立 Copilot 应用。这意味着,你可以像传统桌面应用那样,轻松移动窗口位置、调整窗口大小,并将它固定到任务栏。 由于变成了独立应用,所以你也可以在早期 Windows 11 甚至 Windows 10 上安装和卸载它。 以下步骤同样适用于 Windows 10,但操作步骤可能会略有不同。 在 Windows 11 上安装 Copilot 应用 方法

ComfyUI:AI绘画与图像生成的高效工作流(从入门到提效:节点思维 + 模板复用 + 插件管理)

ComfyUI:AI绘画与图像生成的高效工作流(从入门到提效:节点思维 + 模板复用 + 插件管理)

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 文章目录 * ComfyUI:AI绘画与图像生成的高效工作流(从入门到提效:节点思维 + 模板复用 + 插件管理) * 一、ComfyUI 是什么?它为什么更“高效”🤖 * 二、核心概念:用“节点思维”理解 Stable Diffusion 工作流🧠 * 三、效率提升关键:选对分辨率与参数(以 SDXL 为例)⚙️ * 1)建议的“省心参数”(我常用) * 四、实战:搭一个“

【AIGC工作流】解构AI短剧生产管线:从手动调用DeepSeek+MJ,到Agent一站式自动化的演进

作为一名在代码堆里摸爬滚打多年的老程序员,我对AIGC技术的落地一直保持着敏锐的观察。从最初的GPT-3 API调用,到Stable Diffusion本地部署,再到现在的视频生成模型,技术迭代的速度令人咋舌。 但在实际的AI短剧(AI Video)落地过程中,由于工具链的极度分散,导致生产效率极其低下。本文将从工作流(Workflow)重构的角度,复盘我如何将短剧生产周期从30天压缩至1天的技术路径,并分享一个我近期深度使用的Agent化平台——有戏AI。 一、 痛点:传统AIGC“烟囱式”架构的效率瓶颈 在早期制作我的《重生之玄界》(全网播放量1亿+)系列时,采用的是典型的分步式微服务架构思路,每一个环节都是独立且割裂的: 1. NLP层:调用 DeepSeek / GPT-4 生成分镜脚本(Prompt Engineering 耗时极长)。 2. 图像层:将脚本转化为绘图Prompt,扔进 Midjourney 或 SD。这里最大的技术难点是角色一致性(Character Consistency)

5分钟搞定whisper.cpp模型选型:从tiny到large-v3-turbo的速度与准确率实测

5分钟搞定whisper.cpp模型选型:从tiny到large-v3-turbo的速度与准确率实测 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 你还在为语音识别项目选择合适的模型而纠结吗?当需要在本地部署高效语音转文字功能时,模型大小、速度和准确率的平衡往往让开发者头疼。本文通过实测对比whisper.cpp的8种主流模型,帮你快速找到最适合业务场景的解决方案。读完本文你将获得: * 不同规模模型的磁盘占用与性能数据 * 实时/离线场景下的模型选择决策指南 * 一行命令完成模型部署的实操教程 模型家族全景图 whisper.cpp作为OpenAI Whisper模型的C/C++移植版,提供了从微型到大型的完整模型系列。这些模型经过优化可在CPU/GPU上高效运行,其核心差异体现在参数量与能力范围上。 官方模型规格速查表 模型名称磁盘占用支持语言典型应用场景tiny.en75 MiB仅