github copilot接入第三方openai-compatible模型的方法

github copilot接入第三方openai-compatible模型的方法
审核有点严,我修改了很多敏感词汇,看原文可以去我个人博客:https://kashima19960.github.io/2025/07/28/github%20copilot%E6%8E%A5%E5%85%A5openai-compatible%E6%A8%A1%E5%9E%8B%E4%BB%A5%E5%8F%8A%E5%8E%BB%E9%99%A4%E5%AE%89%E5%85%A8%E9%99%90%E5%88%B6%E7%9A%84%E6%96%B9%E6%B3%95/

重要说明

本文具有时效性,请注意检查信息的正确性!

2025-10-12更新

现在官方明确copilot接入第三方openai-compatible模型是不会上线正式版,并且关闭了相关issue,想要体验这个功能只能使用vscode insider(一个前瞻的测试版),所以现在想要使用这个功能就只有两个选择

  1. 按照这篇文章的教程自行打包带有接入第三方模型功能的 copilot 的扩展
  2. 使用一个叫做 OAI Compatible Provider for Copilot的扩展,具体可以看这位博主的文章 :https://blog.ZEEKLOG.net/johnny0316/article/details/152900115?fromshare=blogdetail&sharetype=blogdetail&sharerId=152900115&sharerefer=PC&sharesource=Johnny0316&sharefrom=from_link

前言

copilot只支持那几家国外的模型提供商,除了openrouter以外我们都很难进行访问和支付,以及copilot系统提示词会拒绝回答非编程的问题,这点也让我很苦恼
所以为了完成我的这两个需求

  1. github copilot chat能接入自定义的openai-compatible模型
  2. 修改提示词

我去查找了相关的开源社区寻找解决方法,由于copilot chat前些日子开源了,所以这个第一个功能有开发者做了,但是微软还没有发布release版本,所以我们需要手动打包扩展,第二个功能可以通过修改系统提示词来实现。

具体步骤

  1. 先把仓库克隆下来,这里要注意,这个开发者把功能commit到了feat-ui分支,不要下载到了main分支
git clone -b feat-ui https://github.com/relic-yuexi/vscode-copilot-chat.git 
  1. 删除相关的提示词(可选)
    找到这个文件 src\extension\prompts\node\base\safetyRules.tsx,这个文件是安全规则提示词的底层文件,会被所有代码引用,所以我们只修改这个文件就行,
    如下图可以看到,这下我们知道为什么问非编程问题,会一直回答"Sorry, I can’t assist with that."了,把这个字符串替换成任意的词即可
在这里插入图片描述

然后再找到这个文件 src\extension\prompts\node\base\copilotIdentity.tsx ,这个提示词强制了无论你询问任何模型是谁,都会回答你 "github copilot ",我不喜欢这个,所以把他替换成空格或者其他的提示词

在这里插入图片描述
  1. 开始构建扩展,并打包成vsix文件

首先确保你已经安装了Node.js和npm,没安装就自己搜索安装一下,不需要啥专业知识的,然后在项目根目录下打开终端,执行以下命令:

安装依赖

2025-7-31更新:这里要有下载isual studio的C++环境,不然安装过程中的编译sqlite3会失败导致安装失败
npminstall

等待完成后,执行:

npx tsx .esbuild.ts 

安装打包工具vsce,这个工具用来将项目打包成VSIX格式

npminstall -g vsce 

最后执行:

vsce package 

就这四个命令

  1. npm install - 安装依赖
  2. npx tsx .esbuild.ts - 构建项目
  3. npm install -g vsce - 安装打包工具
  4. vsce package - 生成VSIX文件

执行完成后,你会在项目根目录看到一个 .vsix 文件,这就是可以安装的VS Code扩展包。

安装扩展:

  • 在VS Code中按 Ctrl+Shift+P
  • 输入 “Extensions: Install from VSIX”
  • 选择生成的 .vsix 文件

另一种方法就是打开vscode的插件市场,点击右上角的三个点,最后一个选项就是了

在这里插入图片描述
2025-7-30更新:评论区有人问怎么添加模型,之前没写,我以为大家都会,下面补充一下

添加openai-compatible模型的方法

  1. 先打开模型选择器,点击manage models
在这里插入图片描述
  1. 点击红框那一栏,这一栏在你成功按照上述方法构建了扩展后就会有了,官方的copilot目前还没有,你找不到就要检查一下自己有没有安装好扩展了
在这里插入图片描述
  1. 理论上,只要是能兼容 openai 格式的模型供应商都能添加,这个具体你要看对应的模型供应商,国内基本上知名的模型都是兼容openai格式的,这里我以deepseek为例,由于我这里已经添加过了(看上图就知道了),这里是取名(名字任意),然后回车
在这里插入图片描述

输入base_url,这里找对应的文档自己查,回车

在这里插入图片描述

右下角会提示成功,

在这里插入图片描述

再次打开模型选择器就能看到了

在这里插入图片描述

点进去,输入apikey,这里你要输入正确的apikey,不然获取model会失败,我这里由于已经添加过deepseek的模型了,所以图片中的 apikey 是我乱填的😋

在这里插入图片描述

把模型id输入一下,具体id看对应的官方文档

在这里插入图片描述

测试是否添加成功由于上述的步骤去除了安全规则和自我介绍,所以可以直接向模型问一些非编程问题,可以看到下图,如果问原版的copilot,他是不会回答你跟模型有关的任何信息的,只会回答“ 我是github copilot”

在这里插入图片描述

已经打包好的扩展

如果你连上述的步骤都没办法完成的话,那就用我打包好的扩展吧

https://gitee.com/oops-holly/vscode-github-copilot-extension/releases/download/1.0.0/copilot-chat-0.30.0.vsix

Read more

目标检测数据集 第133期-基于yolo标注格式的无人机航拍人员搜救检测数据集(含免费分享)

目标检测数据集 第133期-基于yolo标注格式的无人机航拍人员搜救检测数据集(含免费分享)

目录 目标检测数据集 第133期-基于yolo标注格式的无人机航拍人员搜救检测数据集(含免费分享) 超实用无人机航拍人员搜救检测数据集分享,助力计算机视觉研究! 1、背景 2、数据详情 2.1 数据集规模与结构 2.2 标注类别 2.3 场景多样性 3、应用场景 3.1 应急搜救辅助系统 3.2 无人机智能监控与巡查 3.3 计算机视觉算法研究 3.4 灾害评估与灾后重建 4、使用申明 目标检测数据集 第133期-基于yolo标注格式的无人机航拍人员搜救检测数据集(含免费分享) 超实用无人机航拍人员搜救检测数据集分享,助力计算机视觉研究! 1、背景 在自然灾害、事故灾难等突发场景中,人员搜救是应急响应的核心任务。传统搜救方式受地形、天气、视野等条件限制,效率与安全性面临挑战。无人机航拍技术凭借其机动性强、

LangFlow图像生成新玩法:Stable Diffusion插件+GPU秒出图

LangFlow图像生成新玩法:Stable Diffusion插件+GPU秒出图 你是不是也遇到过这样的情况?作为一名设计师,脑子里刚冒出一个绝妙的创意,迫不及待想把它画出来。可一打开本地绘图工具,跑个图动不动就要十分钟起步,等得人抓耳挠腮。更别提中间还要反复调整提示词、换模型、调参数……一趟流程走下来,灵感早就凉了半截。 这时候你可能听说过“上云加速”这个方案——用云端的高性能GPU来跑图,速度能快好几倍。但一听“长期合约”“绑定套餐”这些词,心里又打起了退堂鼓:我只是偶尔需要快速出图,难道要为这点需求签个年费合同? 别急,今天我要分享的这套组合拳,正好解决你的痛点:用LangFlow搭建可视化工作流,结合Stable Diffusion插件,在云端GPU环境里实现“随用随停”的秒级出图体验。整个过程就像搭积木一样简单,不需要写代码,部署完就能直接对外提供服务,不用的时候一键关闭,完全按需计费,真正做到“用时快如闪电,不用时不花一分冤枉钱”。 这篇文章就是为你量身打造的实操指南。我会从零开始,手把手带你完成镜像选择、环境部署、工作流设计、

用AI生成SEEDVR2虚拟现实项目代码

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 输入框内输入如下内容: 请生成一个SEEDVR2虚拟现实项目的初始代码框架,包含以下功能:1) 基础3D场景搭建 2) 第一人称视角控制器 3) 简单物体交互功能 4) VR设备兼容性设置。使用Unity引擎,C#语言,要求代码结构清晰,有详细注释。 1. 点击'项目生成'按钮,等待项目生成完整后预览效果 最近在尝试开发一个叫SEEDVR2的虚拟现实项目,发现用AI辅助开发能省去很多重复劳动。这里记录下我是如何利用InsCode(快马)平台快速生成项目框架的,特别适合想入门VR开发的朋友。 1. 项目需求分析 SEEDVR2需要实现基础的VR体验功能,包括3D场景展示、第一人称移动控制和简单交互。传统手动编写这些功能需要大量时间,而AI生成可以快速搭建出可运行的原型。 2. AI生成核心模块 在平台输入需求后,

Qwen3-ASR-1.7B多场景落地:博物馆AR导览语音→实时转写→关联文物知识图谱推送

Qwen3-ASR-1.7B多场景落地:博物馆AR导览语音→实时转写→关联文物知识图谱推送 想象一下,你走进一座宏伟的博物馆,面对一件精美的青铜器,心中充满好奇。你戴上AR眼镜,对着它轻声问:“这件文物是什么年代的?有什么故事?”几秒钟后,眼镜屏幕上不仅出现了详细的文字介绍,还推送了与之相关的其他展品、历史背景视频,甚至推荐了展厅里下一件值得看的文物。 这背后,正是语音识别技术从“听懂”到“理解”,再到“智能关联”的完美演绎。今天,我们就来聊聊如何利用Qwen3-ASR-1.7B这款高精度语音识别模型,打造一个从语音导览到知识推送的智能博物馆解决方案。 1. 为什么是Qwen3-ASR-1.7B? 在博物馆这种开放、嘈杂且充满回声的环境里,对语音识别的要求非常苛刻。游客可能来自天南海北,带着各种口音;背景里可能有其他游客的交谈声、孩子的跑动声、甚至展品多媒体播放的声音。传统的语音识别方案在这里常常“水土不服”。 Qwen3-ASR-1.7B就像是专门为这种复杂场景定制的“耳朵”。它有几个硬核优势,让它特别适合博物馆: * 听得准:1.