github copilot接入第三方openai-compatible模型的方法

github copilot接入第三方openai-compatible模型的方法
审核有点严,我修改了很多敏感词汇,看原文可以去我个人博客:https://kashima19960.github.io/2025/07/28/github%20copilot%E6%8E%A5%E5%85%A5openai-compatible%E6%A8%A1%E5%9E%8B%E4%BB%A5%E5%8F%8A%E5%8E%BB%E9%99%A4%E5%AE%89%E5%85%A8%E9%99%90%E5%88%B6%E7%9A%84%E6%96%B9%E6%B3%95/

重要说明

本文具有时效性,请注意检查信息的正确性!

2025-10-12更新

现在官方明确copilot接入第三方openai-compatible模型是不会上线正式版,并且关闭了相关issue,想要体验这个功能只能使用vscode insider(一个前瞻的测试版),所以现在想要使用这个功能就只有两个选择

  1. 按照这篇文章的教程自行打包带有接入第三方模型功能的 copilot 的扩展
  2. 使用一个叫做 OAI Compatible Provider for Copilot的扩展,具体可以看这位博主的文章 :https://blog.ZEEKLOG.net/johnny0316/article/details/152900115?fromshare=blogdetail&sharetype=blogdetail&sharerId=152900115&sharerefer=PC&sharesource=Johnny0316&sharefrom=from_link

前言

copilot只支持那几家国外的模型提供商,除了openrouter以外我们都很难进行访问和支付,以及copilot系统提示词会拒绝回答非编程的问题,这点也让我很苦恼
所以为了完成我的这两个需求

  1. github copilot chat能接入自定义的openai-compatible模型
  2. 修改提示词

我去查找了相关的开源社区寻找解决方法,由于copilot chat前些日子开源了,所以这个第一个功能有开发者做了,但是微软还没有发布release版本,所以我们需要手动打包扩展,第二个功能可以通过修改系统提示词来实现。

具体步骤

  1. 先把仓库克隆下来,这里要注意,这个开发者把功能commit到了feat-ui分支,不要下载到了main分支
git clone -b feat-ui https://github.com/relic-yuexi/vscode-copilot-chat.git 
  1. 删除相关的提示词(可选)
    找到这个文件 src\extension\prompts\node\base\safetyRules.tsx,这个文件是安全规则提示词的底层文件,会被所有代码引用,所以我们只修改这个文件就行,
    如下图可以看到,这下我们知道为什么问非编程问题,会一直回答"Sorry, I can’t assist with that."了,把这个字符串替换成任意的词即可
在这里插入图片描述

然后再找到这个文件 src\extension\prompts\node\base\copilotIdentity.tsx ,这个提示词强制了无论你询问任何模型是谁,都会回答你 "github copilot ",我不喜欢这个,所以把他替换成空格或者其他的提示词

在这里插入图片描述
  1. 开始构建扩展,并打包成vsix文件

首先确保你已经安装了Node.js和npm,没安装就自己搜索安装一下,不需要啥专业知识的,然后在项目根目录下打开终端,执行以下命令:

安装依赖

2025-7-31更新:这里要有下载isual studio的C++环境,不然安装过程中的编译sqlite3会失败导致安装失败
npminstall

等待完成后,执行:

npx tsx .esbuild.ts 

安装打包工具vsce,这个工具用来将项目打包成VSIX格式

npminstall -g vsce 

最后执行:

vsce package 

就这四个命令

  1. npm install - 安装依赖
  2. npx tsx .esbuild.ts - 构建项目
  3. npm install -g vsce - 安装打包工具
  4. vsce package - 生成VSIX文件

执行完成后,你会在项目根目录看到一个 .vsix 文件,这就是可以安装的VS Code扩展包。

安装扩展:

  • 在VS Code中按 Ctrl+Shift+P
  • 输入 “Extensions: Install from VSIX”
  • 选择生成的 .vsix 文件

另一种方法就是打开vscode的插件市场,点击右上角的三个点,最后一个选项就是了

在这里插入图片描述
2025-7-30更新:评论区有人问怎么添加模型,之前没写,我以为大家都会,下面补充一下

添加openai-compatible模型的方法

  1. 先打开模型选择器,点击manage models
在这里插入图片描述
  1. 点击红框那一栏,这一栏在你成功按照上述方法构建了扩展后就会有了,官方的copilot目前还没有,你找不到就要检查一下自己有没有安装好扩展了
在这里插入图片描述
  1. 理论上,只要是能兼容 openai 格式的模型供应商都能添加,这个具体你要看对应的模型供应商,国内基本上知名的模型都是兼容openai格式的,这里我以deepseek为例,由于我这里已经添加过了(看上图就知道了),这里是取名(名字任意),然后回车
在这里插入图片描述

输入base_url,这里找对应的文档自己查,回车

在这里插入图片描述

右下角会提示成功,

在这里插入图片描述

再次打开模型选择器就能看到了

在这里插入图片描述

点进去,输入apikey,这里你要输入正确的apikey,不然获取model会失败,我这里由于已经添加过deepseek的模型了,所以图片中的 apikey 是我乱填的😋

在这里插入图片描述

把模型id输入一下,具体id看对应的官方文档

在这里插入图片描述

测试是否添加成功由于上述的步骤去除了安全规则和自我介绍,所以可以直接向模型问一些非编程问题,可以看到下图,如果问原版的copilot,他是不会回答你跟模型有关的任何信息的,只会回答“ 我是github copilot”

在这里插入图片描述

已经打包好的扩展

如果你连上述的步骤都没办法完成的话,那就用我打包好的扩展吧

https://gitee.com/oops-holly/vscode-github-copilot-extension/releases/download/1.0.0/copilot-chat-0.30.0.vsix

Read more

家庭服务器首选:Mac mini 跑 OpenClaw + 私有云 + 导航页

家庭服务器首选:Mac mini 跑 OpenClaw + 私有云 + 导航页

家庭服务器首选:Mac mini 跑 OpenClaw + 私有云 + 导航页 Mac mini 是家庭服务器的首选,可以同时运行 OpenClaw、私有云和导航页,打造完整的家庭数据中心。本文将详细介绍如何配置 Mac mini 作为家庭服务器,实现多服务集成。 一、家庭服务器架构 1.1 服务架构 服务端口功能资源占用OpenClaw8080AI 对话服务中等Nextcloud8081私有云服务中等Homarr8082导航页服务低Portainer9000Docker 管理服务低Nginx80/443反向代理服务低

By Ne0inhk
AI 绘图进阶课:一键解析任意图片,轻松玩转 Midjourney 以图生图!

AI 绘图进阶课:一键解析任意图片,轻松玩转 Midjourney 以图生图!

还在为写不出惊艳的 Midjourney 提示词而烦恼吗?看到一张神仙图片,却不知道如何创作出类似风格?这篇保姆级教程将带你解锁 Midjourney 的一项“黑科技”——图片解析(反推提示词),并结合强大的以图生图(垫图)功能,让你轻松“复刻”并超越经典,释放无限创意! 今天,我们要聊一个 Midjourney 非常强大但又常被新手忽略的组合技:图片解析 + 以图生图。 简单来说,这个工作流分为两步: 1. 图片解析 (/describe 命令):上传一张你喜欢的图片,让 AI 告诉你它“看到”了什么,并自动生成精准的描述性提示词(Prompt)。 2. 以图生图 (/imagine + 图片链接):利用上一步生成的提示词,并以原图作为“艺术参考”(我们称之为“垫图”),生成一张既有原图神韵又有全新创意的作品。 这种方法不仅能帮你学习顶尖的提示词写法,更能让你的创作事半功倍。

By Ne0inhk

Stable Diffusion v2-1-base模型使用指南:从新手到高手的文本到图像生成技巧

想要轻松玩转Stable Diffusion v2-1-base模型,实现高质量的文本到图像生成效果吗?这份指南将带你从基础入门到进阶应用,用最接地气的方式解锁AI绘画的魅力。 【免费下载链接】stable-diffusion-2-1-base 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/stable-diffusion-2-1-base 🎯 新手常见疑惑解答 模型能帮我做什么? Stable Diffusion v2-1-base模型就像你的专属AI画师,只要输入文字描述,就能生成对应的图像。无论是: * 🎨 创意设计:为你的作品集添加独特视觉元素 * 📚 教学辅助:制作生动有趣的课件配图 * 🚀 灵感激发:快速将脑海中的想法可视化 遇到报错怎么办? 初次使用时可能会遇到这些问题: # 依赖包缺失的解决方案 pip install diffusers transformers accelerate scipy safetensors 如果提示GPU内存不足,可以试试这个技巧: # 启用内存优化

By Ne0inhk

Whisper-large-v3详细步骤:云端部署一看就会

Whisper-large-v3详细步骤:云端部署一看就会 你是不是也和我当年一样,刚读研时被导师安排跑通一个语音识别实验,点开Whisper的GitHub页面却一脸懵?各种依赖、环境冲突、CUDA版本不匹配……光是安装就花了三天,还没开始训练模型人已经快崩溃了。别慌!现在完全不用这么折腾了。 今天我要分享的是——如何用预置镜像在云端GPU上,2小时内从零部署Whisper-large-v3并完成语音转文字测试。特别适合像你我这样的研究生小白,不需要懂太多底层细节,只要跟着一步步操作,就能把任务搞定交差。核心思路就是:跳过所有环境配置坑,直接用ZEEKLOG星图平台提供的Whisper专用镜像,一键启动+即拿即用。 这个镜像已经帮你装好了PyTorch、CUDA、HuggingFace Transformers、ffmpeg等所有必要组件,甚至连whisper库都配好了最新版。你只需要上传音频文件,运行几行命令,就能看到结果输出。整个过程就像“打开App→导入视频→点击转换”一样简单。而且支持对外暴露服务接口,后续还能扩展成Web应用或集成到其他系统里。下面我就手把手带你走完全流

By Ne0inhk