解决 VS Code 中 GitHub Copilot Chat 遇到的 `claude-3.7` 模型不支持问题

解决 VS Code 中 GitHub Copilot Chat 遇到的 `claude-3.7` 模型不支持问题

解决 VS Code 中 GitHub Copilot Chat 遇到的 claude-3.7 模型不支持问题

最近在 VS Code 中使用 Cline、Roo Code 插件的时候,尝试切换到 claude-3.7 模型时遇到了如下错误:

API 请求失败 请求失败: 400 {"error":{"message":"此请求不支持模型","param":"model","code":"model_not_supported","type":"invalid_request_error"}} 

然而,当选择 claude-3.5 模型时,功能正常。本文将介绍问题的原因以及如何手动解决该问题。


问题描述

Cline、Roo Code 等插件可以使用 VS Code LM API 来工作, VS Code LM API 提供了多种语言模型选项,但我发现,虽然插件中启用了 claude-3.7 模型,但在实际使用时却提示模型不被支持。而其他模型(如 claude-3.5)则可以正常使用。

在这里插入图片描述

原因分析

经过进一步调查,这一问题是由 Microsoft 引发的,具体表现为 GitHub Copilot Chat 在发送 API 请求时包含了特定的头信息(x-onbehalf-extension-id),导致 API 服务器拒绝了对 claude-3.7 模型的支持。简单来说,Microsoft 的服务尚未完全准备好支持 claude-3.7 模型。


解决方案

尽管这是由 Microsoft 引发的问题,但我们可以采取一些手动措施来绕过限制,从而启用 claude-3.7 模型。

以下是详细步骤:

步骤 1:找到扩展文件夹

Windows:

查找类似以下名称的文件夹:

github.copilot-chat-<版本号> 

打开文件资源管理器并导航到:

%USERPROFILE%\.vscode\extensions\ 
macOS/Linux:

找到类似以下名称的文件夹:

github.copilot-chat-<版本号> 

打开终端并导航到:

~/.vscode/extensions/ 

步骤 2:打开 extension.js 文件

  1. 进入文件夹 github.copilot-chat-<版本号>/dist/
  2. 使用你喜欢的文本编辑器(如 VS Code)打开文件 extension.js

步骤 3:定位标头代码

使用编辑器的搜索功能(快捷键通常是 Ctrl+FCmd+F)搜索以下内容:

"x-onbehalf-extension-id" 

步骤 4:移除或注释掉标头代码

找到包含以下内容的代码段:

S==="getExtraHeaders"?function(){return{...f.getExtraHeaders?.()??{},"x-onbehalf-extension-id":`${A}/${c}`};}:S==="acquireTokenizer"? f.acquireTokenizer.bind(f): Reflect.get(f,S,D);
解决方法 :直接删除标头代码

完全删除以下部分:

"x-onbehalf-extension-id":`${A}/${c}`

并确保删除逗号以保持语法正确。


步骤 5:保存并重启 VS Code

  1. 保存对 extension.js 文件的修改。
  2. 关闭所有正在运行的 VS Code 实例。
  3. 重新打开 VS Code,以使更改生效。

步骤 6:验证更改

  1. 打开你常用的代码文件。
  2. 启动 Cline、Roo Code并尝试使用 claude-3.7 模型。
  3. 如果一切正常,你应该能够看到模型的响应。
在这里插入图片描述

注意事项

  1. 备份文件:在修改扩展文件之前,请务必备份原始的 extension.js 文件,以免出现问题时无法恢复。
  2. 更新风险:如果你更新了 GitHub Copilot Chat 插件,你的更改可能会被覆盖。
  3. 安全性:尽管 GitHub 官方确认这些操作是安全的,但仍然建议仅在了解风险的情况下进行此类修改。

总结

通过手动移除不必要的头信息,我们可以暂时解决 VS Code 中 Cline、Roo Code 对 claude-3.7 模型不支持的问题。希望 Microsoft 能尽快修复此问题,让所有用户都能无缝使用最新模型!

如果你有任何疑问或遇到问题,请随时在评论区留言,我们将尽力协助你解决问题。


祝编程愉快!

.

.

Read more

2025年9月9日首发!即梦 4.0 接口开发全攻略:AI 辅助零代码实现,开源 + Docker 部署,小白也能上手

2025年9月9日首发!即梦 4.0 接口开发全攻略:AI 辅助零代码实现,开源 + Docker 部署,小白也能上手

1.前言 即梦4.0是字节跳动旗下即梦AI推出的多模态大模型,其正式名称为“seedream4.0”。该模型于2025年9月5日正式上线,并已逐步向用户开放,9月8日全面对用户开放。即梦4.0是基于字节跳动自研的Seedream4.0模型,具备强大的中文生成能力和多模态处理能力,支持多模态生图、图像编辑、组图生成等功能。 功能特点如下: 前几天给大家使用dify 来实现即梦4.0功能《dify案例分享-免费玩转即梦 4.0 多图生成!Dify 工作流从搭建到使用全攻略,附案例效果》 这个接口目前全网还没有,我也算是第一时间来实现的。那么这个接口是如何开发的呢?下面给大家介绍一下这个接口开发过程。 2.即梦代码开发过程 1 获取开源项目 项目地址 https://github.com/zhizinan1997/jimeng-free-api-all 把源码下载本地 解压 项目目录 D:\工作临时\2025\9月\2025年9月11日\

By Ne0inhk
政安晨【零基础玩转开源AI项目】OpenClaw 跨平台AI助手完全使用指南:从入门到精通 (基于我这段时间在Ubuntu Linux系统上的使用经验为大家总结一下)

政安晨【零基础玩转开源AI项目】OpenClaw 跨平台AI助手完全使用指南:从入门到精通 (基于我这段时间在Ubuntu Linux系统上的使用经验为大家总结一下)

政安晨的个人主页:政安晨 欢迎 👍点赞✍评论⭐收藏 希望政安晨的博客能够对您有所裨益,如有不足之处,欢迎在评论区提出指正! 【详细安装过程见我博客的上上篇文章】 目录 第一章:OpenClaw核心概念与架构 1.1 什么是OpenClaw? 1.2 OpenClaw技术架构 1.3 支持的模型 第二章:安装与配置 2.1 系统要求 2.2 快速安装(推荐) 2.3 从源码安装(开发版) 2.4 Docker安装 2.5 配置文件详解 第三章:通道配置详解 3.1 飞书配置 3.2 Telegram配置 3.

By Ne0inhk
Qwen3.5开源矩阵震撼发布!从0.8B到397B,不同规模模型性能、显存、速度深度对比与选型指南来了!

Qwen3.5开源矩阵震撼发布!从0.8B到397B,不同规模模型性能、显存、速度深度对比与选型指南来了!

截至今天2026年3月3日,Qwen3.5已形成从0.8B到397B的完整开源矩阵,分为轻量稠密(0.8B/2B/4B/9B/27B)、中型MoE(35B-A3B/122B-A10B)、旗舰MoE(397B-A17B)三大梯队。不同尺度在性能、显存、速度、场景上差异显著,下面是完整对比与选型指南,仅供参考。 一、Qwen3.5全尺度核心参数总览(2026.3最新) 1.轻量稠密系列(Dense,个人/边缘/轻量服务) 名称总参数激活参数架构上下文显存****FP164bit****量化显存定位Qwen3.5-0.8B0.8B0.8BDense32K1.6GB0.4GB极致轻量、端侧/实时交互Qwen3.5-2B2B2BDense32K4GB1GB移动端/IoT、低延迟对话Qwen3.5-4B4B4BDense64K8GB2GB轻量Agent、多模态基座Qwen3.

By Ne0inhk
终于有人把Openclaw团队协作版讲明白了!Clawith 开源方案从原理到部署全拆解

终于有人把Openclaw团队协作版讲明白了!Clawith 开源方案从原理到部署全拆解

Clawith 深度拆解:如何用开源方案搭建多 Agent 团队协作平台 快速摘要 Clawith 是一个基于 OpenClaw 生态的开源多智能体协作平台,它解决了 OpenClaw 在团队场景下「Agent 之间互不认识、缺乏组织架构、没有权限管控」的三大核心痛点。 通过引入 Aware 自主感知系统、数字员工身份体系和广场知识沉淀机制,Clawith 让多个 AI Agent 具备了真正的团队协作能力。项目采用 Apache 2.0 开源协议,支持 Docker 一键部署,最低 2 核 CPU + 4GB 内存即可运行。往下看,有从底层原理到实际部署的完整拆解。 一、从 OpenClaw 到 Clawith:为什么需要「团队版」

By Ne0inhk