VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

前言:为何你的 Copilot 需要一次“魔改”?

本文旨在帮助所有希望突破 VSCode Copilot 模型限制、追求更高代码效率和性价比的开发者。如果你也曾面临以下困境,那么这篇文章就是为你量身打造的:

  • Copilot 官方模型不够用:想尝试最新、最强的国产模型(如智谱 GLM、文心一言、Kimi)却无从下手。
  • API 订阅成本高:官方或其他国外模型的订阅费和按量计费(通常以美元结算)让个人开发者望而却步。
  • 替代品体验有瑕疵:其他辅助插件在某些场景下不如原生的 Copilot 轻便、流畅。

本文将提供一个终极解决方案:通过一个 VSCode 插件,无缝接入任何支持 OpenAI 兼容接口的大模型。我将以当前备受瞩目的国产模型智谱 GLM-5.1 为例,手把手带你完成从申请 API Key 到在 Copilot 中成功调用的全过程。

一、核心插件:OAI Compatible Provider for Copilot

要实现我们的目标,只需要一个关键插件:OAI Compatible Provider for Copilot

这个插件的核心作用,就是充当一个“翻译官”,让 Copilot 能够与所有使用标准 OpenAI API 格式的模型进行对话。安装它,是我们进行一切“魔改”的基础。

  1. 在 VSCode 扩展商店中搜索 OAI Compatible Provider for Copilot,也可以直接搜缩写oai

点击安装,如图。

在这里插入图片描述

二、把智谱 GLM-5.1 注入 Copilot

接下来,我们以接入智谱 GLM-5.1 为例,详细演示配置过程。此方法同样适用于 Kimi、DeepSeek、文心一言等其他所有提供 OpenAI 兼容接口的国产模型。

2.1:获取智谱 GLM-5.1 的 API Key

首先,我们需要从智谱 AI 官方获取访问模型的“钥匙”。

  1. 前往智谱AI官网获取GLM-5.1智谱AI开放平台
  2. 注意,国内限售时,可以考虑去智谱国际版官网,国际的GLM-5.1不限售Z.ai 智谱国际版官网
  3. 注册/登录并创建 API Key:登录后,按照下图指示,依次点击 右上角头像 -> API Keys -> + 创建新的 API Key

复制 Key:创建成功后,系统会生成一串 API Key 字符。立即点击复制按钮,等着下一步使用。

在这里插入图片描述

命名并保存:为你的 Key 输入一个好记的名称(例如 vscode-copilot-key,图示中我起名是ClaudeCode),点击确认。

在这里插入图片描述

2.2:在 VSCode 中配置插件

拿到了 API Key,我们回到 VSCode 进行配置。

  1. 找到插件配置:在搜索框中输入 oai, 然后打开它的设置界面。
  2. 在设置界面填写OpenAI兼容的API接口地址,注意包月计划的地址不要写错
    • 购买了智谱GLM Coding Plan包月计划的填写(如图),一定要填正确,否则会按tokens消耗量扣费: https://open.bigmodel.cn/api/coding/paas/v4
    • 没买智谱包月计划的,走传统的按tokens消耗扣费的,填写这个地址: https://open.bigmodel.cn/api/paas/v4
    • DeepSeek的地址是: https://api.deepseek.com/v1

Kimi的地址是: https://api.moonshot.cn/v1

在这里插入图片描述

2.3:在 Copilot 中启用并使用新模型

最后一步,让 Copilot 认识我们的新伙伴。

  1. 打开 Copilot Chat:点击 VSCode 顶边栏的 Copilot 图标。

在Copilot Ctrl + I 中切模型为GLM-5.1:如图,不说了,命令行唤起同样适用。

在这里插入图片描述

在Copilot Chat切换模型为GLM-5.1:模型列表中选择GLM-5.1,然后向他问好一下,如果能收到答复,就证明大功告成。

在这里插入图片描述

模型列表勾选你想用的即可:如果你的Base URL 和 API Key都配置正确,这里就会弹出模型列表,勾选后点击OK, 配置工作就基本完成了。

在这里插入图片描述

重新进入OAI Compatible选择模型:填入API Key后界面会消失,不要怕,重新 打开 Copilot Chat -> 打开 Manage Models -> 选择OAI Compatible(不要选小齿轮哦,小齿轮是配置API Key的)

在这里插入图片描述

填入上一步申请好的API Key:在弹出的设置窗口,输入你的API Key,然后回车确认。

在这里插入图片描述

选择 OAI Compatible 齿轮:在弹出的模型供应商中,可以看到 [OAI Compatible] 。点击它右侧的小齿轮,后续如果你要修改为其他模型的话也是点击这个小齿轮。

在这里插入图片描述

打开 Manage Models:把模型列表打开,然后点击列表最下面的 Manage Models 按钮。

在这里插入图片描述

至此,大功告成!如需要更加自定义和灵活的配置,就自行阅读OAI插件的使用说明吧,我这里就不细说了。这个插件也是开源的,可以直接去仓库学习用法:https://github.com/JohnnyZ93/oai-compatible-copilot

三、总结与拓展

通过本文的详细步骤,我们成功地将强大的智谱 GLM-5.1 模型集成到了 VSCode Copilot 中,实现了:

  • 突破生态限制:让 Copilot 不再局限于官方模型,拥抱更广阔的模型生态,尤其是优秀的国产大模型。
  • 极致性价比:通过直连官方 API 并按量付费,我们可以更经济、更灵活地使用 AI 辅助编程,告别昂贵的固定订阅。
  • 原生体验:所有操作都在 VSCode 和 Copilot 的原生框架内完成,无需适应新的工具和工作流。

这种方法具有极强的可拓展性。今天我们以 GLM-5.1 为例,明天你就可以用同样的方式接入 Kimi 的长文本能力,或是 DeepSeek 的代码专项能力。你只需要找到对应厂商的 Base URL 和申请 API Key,就能无限拓展你的 Copilot 工具箱。

希望这篇教程能为你打开一扇新的大门。如果你在配置过程中遇到任何问题,或是有更好的模型推荐,欢迎在评论区与我交流!

Read more

从0到1搭建 AI 智能体:零代码、低代码、全代码三种方案对比

从0到1搭建 AI 智能体:零代码、低代码、全代码三种方案对比

一、核心对比表:一眼选对方案(建议收藏) 对比维度零代码方案低代码方案全代码方案技术门槛无编程基础,纯拖拽基础 Python 能力扎实工程能力核心工具Coze、Notion AI、钉钉 AILangChain、Streamlit、ChromaFastAPI、Docker、Redis开发周期1–2 小时1–3 天7–15 天灵活性低中高成本免费/低中高适用场景个人助手、简单自动化部门级应用企业核心系统 二、方案一:零代码 —— 小白/非技术人员首选(当天落地) 零代码方案的核心是:弱化技术,聚焦需求。 通过可视化界面、插件和工作流拖拽即可完成智能体搭建。 1. 首选工具:Coze(扣子) * 字节旗下平台 * 插件生态丰富 * 工作流可视化 * 免费可用 * 可直接发布为网页 / 小程序 2. 实操示例:电商竞品监测智能体 步骤 1:

【Axure教程】AI自动对话机器人

【Axure教程】AI自动对话机器人

AI对话机器人的应用已经非常广泛,从你日常使用的手机助手到企业复杂的客服系统,背后都有它的身影。所以今天就教大家在Axure里制作Ai对话机器人的原型模版,制作完成后,只需要在中继器表格里输入问题和答案,预览时就可以实现自动回复。具体效果你们可以观看下面的视频或打开原型预览地址亲自体验 【原型效果】 1、在输入框里输入问题后,自动搜索问题列表,如果找到答案,机器人自动回复;如果找不到答案,也会回复引导话术。 2、机器人回复时,会模拟打字输入效果,逐字回复。 3、问题和答案,可以在中继器表格里添加或修改。 【原型预览含下载地址】 https://axhub.im/ax10/bcf9d9e5357143b7/#c=1 【制作教程】 本原型模版主要分成底部背景、欢迎区域、问题列表、对话区域输入区域 1.底部背景 底部背景用矩形和线段制作,如下图所示摆放 2.欢迎区域 欢迎区域包括图标和文字,默认未提问时显示。 3.问题列表 问题列表用中继器制作,中继器里摆放矩形和文本标签,矩形用于显示文字,文本标签用于记录答案,

飞书/钉钉/QQ 机器人一站式搞定!OpenClaw Docker 部署教程

飞书/钉钉/QQ 机器人一站式搞定!OpenClaw Docker 部署教程

一、概述 OpenClaw-Docker-CN-IM(OpenClaw 中国IM平台整合Docker版本)是一款容器化应用,旨在提供集成中国主流IM平台的AI机器人网关解决方案。该镜像预装并配置了飞书、钉钉、QQ机器人、企业微信等插件,支持通过环境变量灵活配置,实现快速部署与数据持久化。 同时集成了OpenCode AI代码助手、Playwright浏览器自动化工具及中文TTS语音合成功能,适用于需要构建多平台IM机器人的开发者与科研用户。 本指南将详细介绍其Docker部署流程,包括环境准备、镜像拉取、容器配置、功能测试及生产环境优化建议,帮助用户快速实现服务部署与应用。 二、项目简介与核心特性 2.1 项目简介 OpenClaw 中国 IM 插件整合版 Docker 镜像,预装并配置了飞书、钉钉、QQ机器人、企业微信等主流中国 IM 平台插件,让您可以快速部署一个支持多个中国 IM 平台的 AI 机器人网关。 官方项目地址: https://github.com/justlovemaki/

Windows下安装运用高效轻量本地龙虾机器人ZeroClaw

Windows下安装运用高效轻量本地龙虾机器人ZeroClaw

常用操作系统Windows下,本地安装、配置和使用--龙虾机器人,用过了略显复杂的原装OpenClaw,也用过了易用性逐渐提升的国产替代CoPaw、AutoClaw、WorkBuddy,欲转向性价比更高的“品牌”,几经对比,目光锁定在了ZeroClaw。下面是Windows下,安装、配置和使用ZeroClaw的过程汇总和心得体会。盛传ZeroClaw,不但开源免费、可以本地部署,而且体积小、运行高效,跟我一起体验,看其到底有没有。 1 组合工效 图1 ZeroClaw应用组合工效展现图 2 必备基础 2.1 大模型LLM 通用经济起见,选用硅基流动Siliconflow大模型平台及其下的deepseek-ai/DeepSeek-V3.2,需要进入硅基流动网站注册登录并创建相应的API密钥,如图2所示。 图2 SiliconflowAPI密钥创建及其大模型选择组合截图 2.2 机器人Robot 通用经济起见,选用腾迅的QQ机器人。进入腾迅QQ开放平台,注册登录,新建QQ机器人并创建机器人AppID与机器人密钥,在“开发”下选择相应的常用“回调配置”