VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景

VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!!
(Github Copilot Chat 中使用OpenAI兼容的自定义模型。)

在这里插入图片描述

🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能:
“实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。”

在这里插入图片描述

🤗 官方解决方案:安装VSCode扩展支持

你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot

在这里插入图片描述

通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek V3.2、GLM 4.6 等。

✨ 特色功能

  • 支持几乎所有与 OpenAI 兼容的供应商,例如 ModelScope、SiliconFlow、DeepSeek…
  • 支持视觉模型。
  • 为聊天请求提供额外的配置选项。
  • 支持同时配置来自多个供应商的模型,自动管理 API 密钥而无需反复切换。
  • 支持为同一模型 ID 定义多种配置(例如为 GLM-4.6 启用/禁用思考功能)。Supports almost all

支持控制模型在聊天界面中显示思考与推理内容。

thinkingPartDemo

⚡ 快速开始

  1. 安装“OAI Compatible Provider for Copilot”扩展。
  2. 打开 VS Code 设置,配置 oaicopilot.baseUrloaicopilot.models
  3. 打开 Github Copilot聊天界面。
  4. 点击模型选择器,选择“管理模型…”。
  5. 选择“OAI Compatible”提供商。
  6. 输入您的 API 密钥 —— 它将被本地保存。
  7. 选择您希望添加到模型选择器中的模型。

Settings Example

"oaicopilot.baseUrl":"https://api-inference.modelscope.cn/v1","oaicopilot.models":[{"id":"Qwen/Qwen3-Coder-480B-A35B-Instruct","owned_by":"modelscope","context_length":256000,"max_tokens":8192,"temperature":0,"top_p":1}]

Read more

AI 时代,为什么 “人人都是产品经理” 的时代才真正到来?

AI 时代,为什么 “人人都是产品经理” 的时代才真正到来?

从“口号”到“现实”:AI 如何重构产品经理的能力边界 传统“人人都是产品经理”的矛盾 “人人都是产品经理”的提法由来已久,但在传统产品开发模式中,这更像是一种理念倡导,而非可落地的实践,核心矛盾集中在三个维度: * 能力门槛高:产品经理需要同时掌握用户调研、需求分析、原型设计、跨部门协调等多维度技能,普通员工或用户难以系统掌握。 * 资源壁垒强:产品需求的落地需要依赖开发、设计、测试等团队的资源支持,非专业产品角色无法推动资源协调。 * 试错成本高:传统产品迭代周期以月为单位,需求验证成本极高,非专业人员的创意难以快速得到市场反馈。 这些矛盾导致“人人都是产品经理”始终停留在口号层面,真正能参与产品决策的依然是专业岗位人员。 AI 对产品能力的“平民化”重构 AI 技术的成熟,尤其是大语言模型(LLM)和生成式 AI的普及,正在从根本上打破传统产品开发的能力和资源壁垒,让非专业人员也能完成从创意到落地的全流程产品设计。以下是 AI 带来的核心改变: 1.

ChatGLM-6B智能写作助手开发指南

ChatGLM-6B智能写作助手开发指南 1. 引言 你有没有过这样的经历?面对空白的文档,脑子里有无数想法,但就是不知道从何下笔。写工作报告时,总觉得语言干巴巴的,缺乏感染力;写营销文案时,绞尽脑汁也想不出吸引人的标题;写技术文档时,又担心表达不够专业准确。 如果你也有这些困扰,那么今天要聊的这个话题可能会让你眼前一亮。基于ChatGLM-6B开发一个智能写作助手,听起来可能有点技术含量,但实际上并没有想象中那么复杂。这个助手不仅能帮你生成各种文体的内容,还能检查语法错误、优化表达风格,甚至根据你的需求调整语气和长度。 我最近就在自己的项目中尝试了这套方案,用下来感觉确实能节省不少时间。特别是那些重复性的写作任务,比如写产品介绍、整理会议纪要、生成邮件模板等等,现在基本上交给助手就能搞定,我只需要做最后的润色和调整。 接下来,我就详细分享一下如何从零开始搭建这样一个智能写作助手,包括环境部署、功能开发、实际应用等各个环节。无论你是开发者想要集成写作功能,还是内容创作者想要提升效率,相信都能从中找到有用的信息。 2. ChatGLM-6B模型简介 在开始动手之前,我们

了解ASR(自动语音识别)和模型Whisper

ASR是自动语音识别技术,现代端到端的主流ASR架构为: 音频 → [预处理 → 神经网络编码 → 解码] → 文本                ↑                                           ↑            信号处理                          深度学习 Whisper 是由 OpenAI 于 2022 年发布的开源语音识别模型。它是一个基于 Transformer 架构的端到端模型,具有以下核心特点:多任务模型、多语言支持、多种格式、强鲁棒性和无需微调开箱即用。 一、ASR 音频输入与预处理一般通过ffmpeg与VAD配合完成 1、特征提取与编码 现在的ASR通常使用声学特征直接输入神经网络。 常见的声学特征有以下四种,但是现在一般直接使用神经网络自动学习特征,例如Conformer编码器就是神经网络组成的。 * MFCC(梅尔频率倒谱系数):13-40维 * 梅尔频谱(Mel-Spectrogram):80-128维   * 滤波器组(Filter Bank):40-80维 * 原

【TaskbarDelegate】屏蔽上滑返回桌面手势功能

一、需求描述 基于Android 14 平台,在应用界面中默认使用上滑手势会返回桌面,某些应用要求不能返回到桌面,需要屏蔽上滑手势。 二、需求分析 我们知道手势导航的底部导航横线的逻辑是在 SystemUI 的 NavigationBarView -> NavigationBar -> NavigationBarController -> TaskbarDelegate 等相关的类控制,在手势导航中上滑手势有 2 种功能: * 从屏幕底部向上滑动,即可进入主屏幕 * 从底部向上滑动、按住再松开,可切换应用 如果想要屏蔽,可以直接返回消费掉 InputEvent 事件,就不会走后续的流程了,我尝试在NavigationBarView 的 onInterceptTouchEvent 返回 true,但是只屏蔽了返回Home的功能,最近任务还是会启动。在 TaskbarDelegate 中有设置相关的 sys ui flag