github copilot接入第三方openai-compatible模型的方法

github copilot接入第三方openai-compatible模型的方法
审核有点严,我修改了很多敏感词汇,看原文可以去我个人博客:https://kashima19960.github.io/2025/07/28/github%20copilot%E6%8E%A5%E5%85%A5openai-compatible%E6%A8%A1%E5%9E%8B%E4%BB%A5%E5%8F%8A%E5%8E%BB%E9%99%A4%E5%AE%89%E5%85%A8%E9%99%90%E5%88%B6%E7%9A%84%E6%96%B9%E6%B3%95/

重要说明

本文具有时效性,请注意检查信息的正确性!

2025-10-12更新

现在官方明确copilot接入第三方openai-compatible模型是不会上线正式版,并且关闭了相关issue,想要体验这个功能只能使用vscode insider(一个前瞻的测试版),所以现在想要使用这个功能就只有两个选择

  1. 按照这篇文章的教程自行打包带有接入第三方模型功能的 copilot 的扩展
  2. 使用一个叫做 OAI Compatible Provider for Copilot的扩展,具体可以看这位博主的文章 :https://blog.ZEEKLOG.net/johnny0316/article/details/152900115?fromshare=blogdetail&sharetype=blogdetail&sharerId=152900115&sharerefer=PC&sharesource=Johnny0316&sharefrom=from_link

前言

copilot只支持那几家国外的模型提供商,除了openrouter以外我们都很难进行访问和支付,以及copilot系统提示词会拒绝回答非编程的问题,这点也让我很苦恼
所以为了完成我的这两个需求

  1. github copilot chat能接入自定义的openai-compatible模型
  2. 修改提示词

我去查找了相关的开源社区寻找解决方法,由于copilot chat前些日子开源了,所以这个第一个功能有开发者做了,但是微软还没有发布release版本,所以我们需要手动打包扩展,第二个功能可以通过修改系统提示词来实现。

具体步骤

  1. 先把仓库克隆下来,这里要注意,这个开发者把功能commit到了feat-ui分支,不要下载到了main分支
git clone -b feat-ui https://github.com/relic-yuexi/vscode-copilot-chat.git 
  1. 删除相关的提示词(可选)
    找到这个文件 src\extension\prompts\node\base\safetyRules.tsx,这个文件是安全规则提示词的底层文件,会被所有代码引用,所以我们只修改这个文件就行,
    如下图可以看到,这下我们知道为什么问非编程问题,会一直回答"Sorry, I can’t assist with that."了,把这个字符串替换成任意的词即可
在这里插入图片描述

然后再找到这个文件 src\extension\prompts\node\base\copilotIdentity.tsx ,这个提示词强制了无论你询问任何模型是谁,都会回答你 "github copilot ",我不喜欢这个,所以把他替换成空格或者其他的提示词

在这里插入图片描述
  1. 开始构建扩展,并打包成vsix文件

首先确保你已经安装了Node.js和npm,没安装就自己搜索安装一下,不需要啥专业知识的,然后在项目根目录下打开终端,执行以下命令:

安装依赖

2025-7-31更新:这里要有下载isual studio的C++环境,不然安装过程中的编译sqlite3会失败导致安装失败
npminstall

等待完成后,执行:

npx tsx .esbuild.ts 

安装打包工具vsce,这个工具用来将项目打包成VSIX格式

npminstall -g vsce 

最后执行:

vsce package 

就这四个命令

  1. npm install - 安装依赖
  2. npx tsx .esbuild.ts - 构建项目
  3. npm install -g vsce - 安装打包工具
  4. vsce package - 生成VSIX文件

执行完成后,你会在项目根目录看到一个 .vsix 文件,这就是可以安装的VS Code扩展包。

安装扩展:

  • 在VS Code中按 Ctrl+Shift+P
  • 输入 “Extensions: Install from VSIX”
  • 选择生成的 .vsix 文件

另一种方法就是打开vscode的插件市场,点击右上角的三个点,最后一个选项就是了

在这里插入图片描述
2025-7-30更新:评论区有人问怎么添加模型,之前没写,我以为大家都会,下面补充一下

添加openai-compatible模型的方法

  1. 先打开模型选择器,点击manage models
在这里插入图片描述
  1. 点击红框那一栏,这一栏在你成功按照上述方法构建了扩展后就会有了,官方的copilot目前还没有,你找不到就要检查一下自己有没有安装好扩展了
在这里插入图片描述
  1. 理论上,只要是能兼容 openai 格式的模型供应商都能添加,这个具体你要看对应的模型供应商,国内基本上知名的模型都是兼容openai格式的,这里我以deepseek为例,由于我这里已经添加过了(看上图就知道了),这里是取名(名字任意),然后回车
在这里插入图片描述

输入base_url,这里找对应的文档自己查,回车

在这里插入图片描述

右下角会提示成功,

在这里插入图片描述

再次打开模型选择器就能看到了

在这里插入图片描述

点进去,输入apikey,这里你要输入正确的apikey,不然获取model会失败,我这里由于已经添加过deepseek的模型了,所以图片中的 apikey 是我乱填的😋

在这里插入图片描述

把模型id输入一下,具体id看对应的官方文档

在这里插入图片描述

测试是否添加成功由于上述的步骤去除了安全规则和自我介绍,所以可以直接向模型问一些非编程问题,可以看到下图,如果问原版的copilot,他是不会回答你跟模型有关的任何信息的,只会回答“ 我是github copilot”

在这里插入图片描述

已经打包好的扩展

如果你连上述的步骤都没办法完成的话,那就用我打包好的扩展吧

https://gitee.com/oops-holly/vscode-github-copilot-extension/releases/download/1.0.0/copilot-chat-0.30.0.vsix

Read more

OpenClaw龙虾图鉴:16只AI Agent选型指南

OpenClaw龙虾图鉴:16只AI Agent选型指南

这里写目录标题 * 🦞 OpenClaw龙虾图鉴:16只AI Agent选型指南 * 🎯 快速选型指南 * 🥇 第一梯队:官方正统 * 1️⃣ OpenClaw - 原生官网框架 * 2️⃣ 🌙 KimiClaw - 云端大存储+Kimi K2.5 * 3️⃣ ⚡ MaxClaw - 成本杀手,10秒部署 * 🥈 第二梯队:极客专精 * 4️⃣ 🔥 NullClaw - 678KB极致疯子 * 5️⃣ 🦀 OpenFang - Rust生产级Agent OS * 6️⃣ 🐍 Nanobot - Python死忠粉 * 7️⃣ 🤖 NanoClaw - 多Agent协作狂魔 * 🥉 第三梯队:场景特化 * 🌱 第四梯队:新兴潜力股 * 1️⃣5️⃣ 🌱 EasyClaw -

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这!

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这!

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这! 核心观点:AI应用开发绝非简单的API调用,而是融合算法理解、系统架构、工程实践、业务洞察的综合性技术领域。 随着人工智能技术的爆发式增长,越来越多的企业和开发者涌入AI应用开发赛道。然而,一个普遍存在的认知偏见依然困扰着这个领域——**很多人认为AI应用开发本质上就是调用大模型API,难度系数不高。**这种表象化的理解,恰恰忽视了AI应用开发的深层技术复杂度。 通过一次极具代表性的技术面试,我们可以清晰地看到AI应用开发的真实技术图谱。同时,我们也将深入探讨这个领域的技术演进、最佳实践以及未来发展趋势。 文章目录 * 以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这! * 技术背景重构 * 面试者画像可视化 * AI应用开发的技术现状与挑战 * 技术生态的演进路径 * 提示词工程的深层逻辑 * 提示词工程的系统性方法论 * 1. 场景分类体系 * 2. 提示词模板管理 *

Kubernetes与边缘AI最佳实践

Kubernetes与边缘AI最佳实践 1. 边缘AI核心概念 1.1 什么是边缘AI 边缘AI是指在边缘设备上运行AI模型,而不是在云端数据中心。边缘AI可以减少延迟、节省带宽、保护隐私,并在网络连接不稳定时保持服务可用性。 1.2 边缘AI的优势 * 低延迟:数据不需要传输到云端,响应时间更短 * 带宽节省:减少数据传输,降低网络成本 * 隐私保护:敏感数据在本地处理,不离开设备 * 离线运行:在网络连接中断时仍能正常工作 * 分布式计算:充分利用边缘设备的计算资源 2. 边缘Kubernetes集群搭建 2.1 边缘节点配置 边缘节点要求 * 硬件:至少2GB RAM,2核CPU,10GB存储空间 * 网络:稳定的网络连接 * 操作系统:支持Docker的Linux发行版 安装Docker和kubeadm # 安装Docker apt-get update apt-get install -y