低成本运行 Claude Code:通过 LiteLLM 接入 GitHub Copilot Chat API 的完整指南

低成本运行 Claude Code:通过 LiteLLM 接入 GitHub Copilot Chat API 的完整指南

阅读原文

一、背景与动机

Claude Code 是 Anthropic 推出的编程 Agent 工具,很多人会用它做 “vibe coding”:一边写代码一边提问,在对话中重构、重组、查 bug,体验非常接近“和聪明同事结对编程”。

但在实际使用中,它有两个比较现实的问题:

  1. 成本高:频繁的对话请求,会很快消耗你的 Anthropic API 配额;
  2. 网络不稳:在一些网络环境下,直接请求 Anthropic API 可能经常超时或失败。

与此同时,很多开发者已经在使用 GitHub Copilot。GitHub 在 Copilot 背后接入了包括 Claude 在内的多种大模型(具体组合会随时间调整),而你已经为这部分算力付过费了。

于是,一个很自然的问题出现了:

能不能让 Claude Code 直接“吃” GitHub Copilot 的额度?

答案是肯定的。

本文会介绍如何使用 LiteLLM 作为本地中间层,让 Claude Code 对着本地代理讲话,再由本地代理去请求 GitHub Copilot Chat API(下文简称 Copilot API)。

1.1 使用前的合规提示

在继续之前,需要特别说明:

⚠️ 注意:通过中间层将 Claude Code 接入 Copilot API 的方式,并非 GitHub 官方公开文档中主推或保证支持的使用场景。
实际操作前,请自行阅读并评估 GitHub Copilot 的最新服务条款、使用限制与风控策略,确认自己的使用方式是合规且可接受风险的。

如果你清楚了解这一点,并愿意自行承担相应风险,可以继续往下。

二、整体架构

Claude Code 支持通过环境变量配置自定义的 BASE_URL。我们正是利用这一点,将它“接入” LiteLLM,再由 LiteLLM 去调用 Copilot API。

整体流程可以概括为:

  1. 客户端:Claude Code
    • 使用 claude CLI 客户端(本文中的 claude 命令,即 Claude Code 的命令行工具);
    • 配置为向本地 http://localhost:4000 发送请求。
  2. 中间件:LiteLLM 代理
    • 在本地启动一个 LiteLLM 代理服务;
    • 接收来自 Claude Code(Anthropic 风格)的请求;
    • 将请求参数转换为 Copilot API 支持的格式;
    • 添加必要的请求头,将自己伪装成编辑器插件客户端;
    • 将 Copilot API 的返回结果再转回给 Claude Code。
  3. 后端:GitHub Copilot Chat API(Copilot API)
    • 接收 LiteLLM 转换后的请求;
    • 返回模型输出,由 LiteLLM 原样转发给 Claude Code。

通过这种方式,你保留了完整的 Claude Code 交互体验,但实际计算由 GitHub Copilot 提供,从而:

  • 利用现有 Copilot 订阅额度,减少额外 API 支出
  • 通过本地代理和 Copilot 的网络优势,提高请求稳定性

三、准备工作

在开始动手之前,你需要:

  • 一个有效的 GitHub Copilot 订阅
  • 一台可以本地运行以下工具的电脑:
    • uv(推荐)或者 pip
    • claude(Claude Code CLI 工具)。

假设你已经可以在终端中直接运行:

claude --help

并看到正常的帮助信息。

四、第一步:创建 LiteLLM 配置文件

LiteLLM 是整个方案的核心入口。通过它的配置文件,我们将:

  • 定义一个逻辑模型名(Claude Code 将使用这个名字来“选模”);
  • 告诉 LiteLLM,真实的后端模型是 Copilot 提供的哪一个;
  • 配置必要参数和请求头,让 Copilot API 正常响应。

在任意目录下创建一个 config.yaml,内容示例:

model_list:-model_name: claude-opus-4.5litellm_params:# 使用 GitHub Copilot 作为实际提供方model: github_copilot/claude-opus-4.5# 丢弃 Claude Code 发出的非标准参数,避免后端报错drop_params:true# 添加伪装为编辑器客户端的 Headers,确保 Copilot 正常响应extra_headers:Editor-Version:"vscode/1.106.3"Editor-Plugin-Version:"copilot/1.388.0"Copilot-Integration-Id:"vscode-chat"User-Agent:"GithubCopilot/1.388.0"

这里有三个关键点:

  1. model_name
    • 这是暴露给 Claude Code 的“逻辑模型名”;
    • 稍后配置 ANTHROPIC_MODEL 时,需要与这里完全一致。
  2. model
    • 这是 LiteLLM 内部用来识别 Copilot 后端的标识;
    • 示例中使用的是 github_copilot/claude-opus-4.5,你可以根据 LiteLLM 文档和 Copilot 实际支持的模型进行调整。
  3. drop_params: true
    • 很关键;
    • Claude Code 常常会在 Anthropic 协议上附加一些扩展字段,而 Copilot API 未必认识这些字段;
    • 开启 drop_params 后,LiteLLM 会剥掉非标准参数,避免因为字段不兼容导致 Copilot 返回 4xx 错误。
如果你希望在 Claude Code 中切换多个不同模型,可以在 model_list 里再添加多个条目,每个条目的 model_name 不同即可。

五、第二步:安装并启动 LiteLLM 代理

推荐用 uv 安装 LiteLLM。uv 提供了隔离环境和更快的安装体验。如果不熟悉,也可以直接用 pip

5.1 安装 LiteLLM(含代理功能)

# 使用 uv 安装带 proxy 功能的 LiteLLM uv tool install"litellm[proxy]"# 如果你更习惯 pip,也可以:# pip install "litellm[proxy]"

安装完成后,litellm 会作为一个可执行命令出现在你的 PATH 中,可以直接在终端里使用。

5.2 启动 LiteLLM 代理

在包含 config.yaml 的目录下运行:

litellm --config config.yaml --port4000

这是你的 窗口 A,建议保持这个终端一直打开,用来观察日志。

5.3 首次使用 Copilot API 时的设备授权

LiteLLM 第一次调用 Copilot API 时,会引导你走一遍 GitHub 的设备授权流程:

  1. 终端里会打印一个 URL(通常类似 https://github.com/login/device)和一个 8 位设备码;
  2. 打开浏览器,访问这个 URL;
  3. 粘贴设备码,确认授权给相应应用;
  4. 授权成功后,回到终端,LiteLLM 会自动继续刚才的请求。

LiteLLM 会将获得的 token 缓存在本地(通常在你的配置目录下),后续重启代理不需要重复授权,除非 token 失效或手动清除。

六、第三步:配置 Claude Code 使用 LiteLLM

接下来要做两件事:

  1. 让 Claude Code 以为自己仍在访问 Anthropic API;
  2. 实际上把请求转发到本地的 LiteLLM 代理。

可以通过 环境变量(临时)或 Claude Code 配置文件(持久化)来完成。

6.1 环境变量(适合快速测试)

在启动 claude 之前,在 窗口 B 终端中执行:

exportANTHROPIC_AUTH_TOKEN="sk-any-string"# 客户端需要一个非空值,LiteLLM 会忽略它exportANTHROPIC_BASE_URL="http://localhost:4000"exportANTHROPIC_MODEL="claude-opus-4.5"# 必须与 config.yaml 中的 model_name 完全一致exportCLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1# 减少遥测和非必要流量

说明:

  • ANTHROPIC_AUTH_TOKEN
    • 对 LiteLLM 无意义,不会被传给 Copilot API;
    • 只是为了满足 Claude Code 客户端自身的基本校验。
  • ANTHROPIC_BASE_URL
    • 将默认的 Anthropic 接口改为本地的 LiteLLM 代理;
    • 端口号需要和你实际启动 LiteLLM 时一致(这里为 4000)。
  • ANTHROPIC_MODEL
    • 字符串必须与 config.yaml 中的 model_name 一模一样;
    • 否则 LiteLLM 会报“模型不存在”或类似错误。
  • CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC
    • 把一些非必要请求(如遥测)关掉,减少噪音流量。

6.2 配置文件(适合长期使用)

如果你希望以后每次运行 claude 时都自动应用这些设置,可以创建或编辑:

~/.claude/settings.json 

内容示例:

{"env":{"ANTHROPIC_AUTH_TOKEN":"sk-any-string","ANTHROPIC_BASE_URL":"http://localhost:4000","ANTHROPIC_MODEL":"claude-opus-4.5","CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC":"1"}}

保存后,claude 在启动时会自动加载这些环境变量。

如果你原本就有自己的 settings.json(例如配置了其他集成),记得把上面的字段合并到原有 JSON 中,而不是完全覆盖文件。

七、第四步:启动并验证 Claude Code

现在你应该有两个终端窗口:

窗口 B:运行 Claude Code(CLI)

claude 

窗口 A:运行 LiteLLM 代理

litellm --config config.yaml --port4000

如果一切配置无误:

  • claude 应该能正常启动;
  • 你可以随便发一句话,例如:“帮我写一个 Python 脚本,打印 1 到 10 的平方。”;
  • 此时,看一眼 窗口 A 中 LiteLLM 的日志:
    • 应该能看到来自客户端的请求;
    • 日志中能看到类似 github_copilot/claude-opus-4.5 的调用记录。

如果看到这些,说明整个链路已经打通:

Claude Code → LiteLLM(本地代理) → Copilot API → LiteLLM → Claude Code

7.1 常见问题排查(可快速自检)

如果没有成功,可以按下面几个方向排查:

  1. Claude Code 提示找不到模型 / 报 404 类似错误
    • 检查 ANTHROPIC_MODELconfig.yamlmodel_name 是否完全一致(包括大小写和中划线)。
  2. LiteLLM 看不到任何请求
    • 检查 ANTHROPIC_BASE_URL 是否确实指向 http://localhost:4000
    • 确认 LiteLLM 代理是在同一台机器上运行,且未被防火墙拦截。
  3. LiteLLM 日志中出现 GitHub 相关的 401 / 403
    • 说明 Copilot 授权失败或 token 失效;
    • 重启 LiteLLM,让它重新走一遍设备授权流程;
    • 检查你的 GitHub 账户 Copilot 订阅是否仍然有效。

结语

通过在本地引入 LiteLLM 作为中间层,我们实现了:

  • 用 GitHub Copilot 作为 Claude Code 的“后端算力”
    在你已经订阅 Copilot 的前提下,减少额外购买 Anthropic API 的支出。
  • 通过本地代理提升网络稳定性
    请求只需要稳定访问 GitHub,而不必直接访问 Anthropic 的海外节点,在某些网络环境下会更友好。
  • 保留原汁原味的 Claude Code 使用体验
    对你而言,依然是在终端里运行 claude、打开 familiar 的对话界面,只是背后的算力来源发生了变化。

需要再次强调的是:

这种玩法属于“高级折腾”,并不是 GitHub 官方文档鼓励或保证长期可用的路径。
在正式使用前,请务必自己阅读 Copilot 最新的服务条款和使用规范,并自行评估合规性与风险。

对于那些:

  • 已经是 Claude Code 重度用户
  • 同时有 有效的 GitHub Copilot 订阅
  • 又希望在成本和网络稳定性之间找到平衡点的开发者——

这个方案非常值得折腾和体验一番。

如果你愿意继续深入,还可以在 LiteLLM 上挂接更多模型(如 OpenAI、原生 Anthropic API 等),再通过 Claude Code 的模型选择实现更灵活的编程工作流,这是另一个可以展开写一篇的主题了。

Read more

知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?

知网是如何检测AIGC的?为什么你的论文会被判定为AI生成?

本文由XYZ SCIENCE官方撰写,未经授权禁止转载 XYZ SCIENCE是国内唯一以自研模型技术提供论文降AI率解决方案的平台,所有用户可以免费使用(www.xyzscience.com) AIGC检测原理 AIGC检测主要有两种方法:一种是传统的统计学方法,另一种是基于深度学习模型(通常是BERT模型)的风格分类方法。 先说结论:  ✅ 知网的AIGC检测由以前的统计学方法升级为了BERT检测模型,这就是为什么之前ai率为0的论文,在知网升级后再去检测会变为100%。 接下来我们分别介绍以下两种方法是如何进行检测的,我们尽量使用通俗易懂的语言来讲解。 统计学方法 主要统计你论文中的一些特征值是否符合AI论文特征,例如困惑度、突发性等等,我们以突发性(这个概念非常好理解)为例,过一遍检测流程。 突发性:输入内容的每个句子的长度分布。 如果你的论文内容有10句话,每句话都是40-50个字长度,那么你的内容突发性就是很低。 如果每一句长度都一样,那么突发性为0。 AI写的论文的一个特征就是,每个句子长度很相近,即突发性很低。 也就是说,如

手把手教你使用 Faster-Whisper 实时语音输入转文本,本地部署教程

手把手教你使用 Faster-Whisper 实时语音输入转文本,本地部署教程

文章目录 * 前言 * 一、安装环境 * 二、使用步骤 * 1.下载模型 * 2.实时录音转文本脚本 * 3.报错解决方法 * 总结 前言 要想实现像豆包、微信等一样的语音输入功能,通常有两种主流方案:云端 API(轻量、准确度极高)和 本地模型(免费、隐私、无需联网)。由于目前开发的系统需要添加一个语音识别功能,刚好记录一下使用 Faster-Whisper 实时语音输入转文本。Faster-Whisper官网地址链接: Faster-Whisper官网地址 复现成功如下图所示,请看下文教程就能部署本地实时语音输入转文本模型: 电脑有显卡的话可以参考下面这篇文章安装 cuda 和 cudnn cuda和cudnn的安装教程: cuda和cudnn的安装教程(全网最详细保姆级教程) 一、安装环境 在你的虚拟环境安装 faster-whisper,命令如下: pip install faster-whisper 安装录音库

AIGC 与艺术创作:机遇

AIGC 与艺术创作:机遇

目录 一.AIGC 的崛起与艺术领域的变革 二.AIGC 在不同艺术形式中的应用 1.绘画与视觉艺术 2.音乐创作 三.AIGC 为艺术创作带来的机遇 1.激发创意灵感 2.提高创作效率 总结 在当今数字化时代,人工智能生成内容(AIGC)正以惊人的速度重塑着艺术创作的格局,为艺术家们带来了令人振奋的新机遇。 一.AIGC 的崛起与艺术领域的变革 随着人工智能技术的不断进步,AIGC 逐渐在艺术领域崭露头角。它依托强大的机器学习算法和深度学习模型,能够分析大量的艺术作品数据,并从中学习各种风格、技巧和表现形式。 例如,OpenAI 的 DALL・E 2 是一款强大的图像生成模型。艺术家可以输入描述 “一只穿着太空服的猫在月球上漫步”,DALL・E 2 就能生成一幅非常逼真且富有创意的图像。这一技术突破使得艺术创作不再局限于传统的手工绘制,而是可以通过算法来实现。艺术家们可以利用这些工具来快速探索不同的创意方向,

基于FPGA的TDC延迟链优化与码密度校准方法

1. TDC延迟链的基本原理与挑战 时间数字转换器(TDC)的核心任务是将时间间隔转换为数字量,就像秒表记录运动员成绩一样。但在高精度测量领域,我们需要达到皮秒(ps)级的分辨率,这相当于把一秒分成一万亿份!FPGA内部的进位链(Carry Chain)资源天然适合实现这种高精度测量,因为它具有极快的信号传播速度。 延迟链的基本原理很简单:信号从链的起点开始传播,每经过一级延迟单元就会产生固定的时间延迟。当另一个参考信号(如停止信号)到达时,我们通过检查链上每个单元的状态,就能知道信号传播了多少级,从而计算出时间间隔。这就像观察一排多米诺骨牌倒到第几块了一样。 但在实际应用中,我们会遇到一个棘手的问题:零宽度延迟单元。这些单元由于制造工艺偏差,几乎不产生任何延迟。它们的存在会破坏温度计码的连续性,导致测量结果出现非线性误差。想象一下,如果多米诺骨牌中混进了几块不会倒的牌子,我们就无法准确判断骨牌倒到哪了。 2. 码密度测试:诊断延迟链的健康状况 码密度测试是校准TDC的基础,它的原理类似于统计学中的蒙特卡洛方法。我们让Start信号和Strobe信号使用两个不同频率且不相干