(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot

目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,我总结了一下Copilot中接入OpenAI 兼容 API 的方法。
实现方法主要分为两种:

方案一:修改 Copilot Chat 源代码
在模型选择器中新增自定义提供商选项。

方案二:API 兼容适配
将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。

方法一(目前存在问题)

具体做法可参考修改Copilot chat插件增加自定义模型提供商


这里只说一下这个方法存在的问题:

  1. 官方开源的Copilot chat插件版本通常滞后于最新版,可能存在未来兼容性问题
  2. 打包过程的npm install环节容易报错,需要多次调试
  3. 重要 当前打包后的Copilot chat插件在VSCode中无法显示模型选择器。虽然原作者指出这是由于插件要求的VSCode最低版本与实际版本不匹配所致,但即便修改了package.json中的vscode版本号,问题依然存在。

方法二(长期有效)

这一方法基于Github上的oai2ollama项目,它通过命令行工具启动一个服务,将OpenAI兼容API封装为Ollama兼容API。特别适合为不支持自定义OpenAI API但支持Ollama的编码代理(如VS Code中的GitHub Copilot)提供自定义模型支持。
这一项目的灵感来源于vscode-copilot GitHub讨论区中关于添加自定义 OpenAI 端点配置(基础 URL 和模型参数)到协同聊天设置的讨论。值得注意的是,官方已采纳该提议,未来Copilot版本可能直接支持第三方模型。
言归正传,具体操作步骤如下:

  1. 安装UV工具
    详细安装教程可参考:Windows系统UV安装及路径配置指南
    • 执行uv tool install进行永久安装
    • 创建批处理文件(双击运行):

配置VS Code
在Copilot模型选择器中选择"Ollama",稍候将显示第三方模型列表。

模型选择界面

运行转换程序
在命令行直接执行(无需本地下载项目):

uvx oai2ollama --api-key your_api_key --base-url provider_base_url 

如需长期使用,可选择以下任一方式:

@echo off powershell -NoExit-Command"uvx oai2ollama --api-key your_api_key --base-url provider_base_url"

常见问题:若未显示模型列表,请检查命令行报错信息。多数情况下,在base-url末尾添加/v1即可解决。

Read more

libwebkit2gtk-4.1-0安装依赖处理:Ubuntu 22.04场景解析

libwebkit2gtk-4.1-0 安装踩坑实录:Ubuntu 22.04 下的依赖破局之道 你有没有遇到过这样的场景?在一台干净的 Ubuntu 22.04 系统上,想装一个基于 WebKitGTK 的应用,结果运行 apt install 时突然弹出一串红色错误: The following packages have unmet dependencies: libwebkit2gtk-4.1-0 : Depends: libjavascriptcoregtk-4.1-0 (= 2.36.3-0ubuntu0.22.04.1) but it is not going to be installed 然后无论你怎么 apt --fix-broken install 、 apt

Python与前端集成:构建全栈应用

Python与前端集成:构建全栈应用 前言 大家好,我是第一程序员(名字大,人很菜)。作为一个非科班转码、正在学习Rust和Python的萌新,最近我开始学习Python与前端技术的集成。说实话,一开始我对全栈开发的概念还很模糊,但随着学习的深入,我发现Python作为后端与前端框架的结合可以构建出功能强大的全栈应用。今天我想分享一下我对Python与前端集成的学习心得,希望能给同样是非科班转码的朋友们一些参考。 一、后端API设计 1.1 使用FastAPI创建RESTful API FastAPI是一个现代化的Python Web框架,非常适合构建RESTful API: from fastapi import FastAPI from pydantic import BaseModel from typing import List app = FastAPI() class Item(BaseModel): id: int name: str price: float is_

手把手教你在豆包上创建专属AI智能体

手把手教你在豆包上创建专属AI智能体

在当今数字化时代,AI智能体正逐渐融入我们的生活,为我们的创作带来了前所未有的便利。对于创作者而言,拥有一个属于自己的AI智能体,就如同拥有了一个得力的创作伙伴,能够极大地提升创作效率与质量。 一、AI智能体为个人创作赋能 AI智能体可以在多个方面助力个人创作。比如在写作领域,它能根据给定的主题生成大纲、提供丰富的素材,甚至协助完成初稿的创作;在设计方面,能依据设计风格和需求,快速生成创意草图或设计元素;在视频制作中,可帮忙进行脚本撰写、分镜头设计等工作。以写作为例,当你灵感枯竭时,向AI智能体描述大致方向,它能迅速给出新颖的观点和独特的表达方式,拓宽你的创作思路。 二、自制智能体效果欠佳?问题可能出在角色设定 许多小白用户在创建自己的AI智能体后,发现生成的内容不尽人意。其中一个关键原因往往是角色设定不够精准完善。AI智能体如同一个虚拟的工作人员,你需要清晰明确地告诉它“你是谁”“你能做什么”“你该怎么做”。如果角色设定模糊,智能体就无法准确理解你的意图,自然难以生成符合期望的内容。例如,若要创建一个协助绘画的智能体,仅仅说“你帮我画画”是远远不够的,需要详细说明绘画风格

Claude Code安装与使用完全指南:2026 年最前沿的 AI 编程助手

Claude Code安装与使用完全指南:2026 年最前沿的 AI 编程助手

文章目录 * 前言 * 一、什么是 Claude Code? * 1.1 定义与定位 * 1.2 技术优势 * 二、安装前的环境准备 * 2.1 系统要求 * 2.2 前置依赖 * 三、Claude Code 全平台安装教程 * 3.1 安装方式对比 * 3.2 Windows 系统安装 * 3.3 macOS 系统安装 * 3.5 安装后初始化 * 四、配置与优化 * 4.1 配置文件位置 * 4.2 跳过新手引导 * 4.3 接入国产大模型(免翻墙方案)