Claude部署(copilot反向代理)

一、教育邮箱认证

1、进行教育邮箱认证可免费使用claude pro 2年,有机会的话可以进行认证,无法教育认证的话只能花钱充claude的会员了,如何进行教育认证可观看该Up的视频

超简单一次通过Github学生认证,逐步详细视频教程_哔哩哔哩_bilibili

2、教育认证通过后在GitHub个人主页下的Copilot/Features中开启Copilot Pro

二、服务器上配置Copilot反向代理

1、配置nodejs环境

在官网https://nodejs.org/en/download/package-manager,下载nodejs安装包(Linux)

下载完成后将压缩包传到服务器上进行解压,目录如下

创建软连接,使得在任意目录下都可以试用直接使用node命令和npm命令

ln -s /root/node-v24.13.1-linux-x64/bin/node /usr/local/bin/node ln -s /root/node-v24.13.1-linux-x64/bin/npm /usr/local/bin/npm 

命令执行成功后,切到“usr/local/bin”目录,可以看到该目录下有两个文件

编辑环境配置文件,首先cd 到根目录

然后编辑etc下的profile文件

vim /etc/profile

在该文件的最后一行加入两行export的代码,修改完成后执行source /etc/profile 刷新环境配置

检查node及npm版本,出现版本号则nodejs环境配置完成

2、科学上网

3、配置copilot环境

npm install -g copilot-api copilot-api start

如果出现这种情况

复制copilot-api的绝对路径,再start

/root/node-v24.13.1-linux-x64/bin/copilot-api start

成功start后的终端会出现以下模型

三、本地部署claude

1、安装最新 NodeJS 环境,下载安装包(Windows版本)一路下一步安装即可:https://nodejs.org/zh-cn/download

2、安装claude code

在cmd终端中输入npm install -g @anthropic-ai/claude-code

3、使用claude code,开启两个cmd终端,其中一个用来远程链接服务器,注意服务器上要开启VPN代理,copilot-api start也要运行

ssh 用户名@IP地址

另一个cmd终端,用来使用claude code,在终端中输入claude即可启动

如果出现 claude code 无法连接到 Anthropic 服务,修改claude.json文件

Unable to connect to Anthropic services Failed to connect to api.anthropic.com: ERR BAD REQUEST lease check your internet connection and network settings. Note: Claude Code might not be available in your country, Check supported countries atnttps://anthropic.com/supported-countriesS E:ltoollclaude code> 

加一行字段,"hasCompletedOnboarding": true

如果出现需要登陆的情况,在终端中输入以下命令,关闭终端后开启,重新输入claude。如果依然还需要登陆,删掉.claude.json文件后再来一次

setx ANTHROPIC_API_KEY "sk-anything" setx ANTHROPIC_BASE_URL "http://127.0.0.1:4141"

参考资料

超简单!手把手教你玩转ClaudeCode,无魔法不会员!-腾讯云开发者社区-腾讯云

Claude Code+Claude-4.5代理配置全流程:从零开始搭建AI编程环境!_claude code 代理-ZEEKLOG博客

Linux环境安装配置nodejs详细教程_linux安装nodejs-ZEEKLOG博客

解决:claude code 无法连接到 Anthropic 服务_unable to connect to anthropic services failed to -ZEEKLOG博客

Read more

OpenAI Codex vs GitHub Copilot:哪个更适合你的开发需求?2025年深度对比

OpenAI Codex 与 GitHub Copilot:2025年开发者如何做出关键选择? 在2025年的技术栈里,一个高效的AI编程伙伴不再是锦上添花,而是决定项目节奏与质量的核心生产力。面对市场上功能各异的选择,许多开发者,尤其是那些管理着复杂项目或带领团队的技术决策者,常常陷入一个两难的境地:是选择功能全面、能独立处理任务的“AI工程师”,还是选择无缝集成、提供实时灵感的“智能副驾驶”?这不仅仅是工具的选择,更是关于工作流重塑、团队协作模式乃至项目架构未来的战略决策。对于个人开发者、初创团队乃至大型企业的技术负责人而言,理解这两款主流工具——OpenAI Codex与GitHub Copilot——在本质定位、适用场景与成本效益上的深层差异,是避免资源错配、最大化技术投资回报的第一步。本文将深入它们的核心,帮助你根据真实的开发需求,找到那个最契合的“数字搭档”。 1. 核心理念与定位:从“辅助”到“执行”的范式差异 理解Codex和Copilot,首先要跳出“它们都是写代码的AI”这个笼统印象。它们的底层设计哲学决定了完全不同的应用边界。 OpenAI Codex

(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot

目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,我总结了一下Copilot中接入OpenAI 兼容 API 的方法。 实现方法主要分为两种: 方案一:修改 Copilot Chat 源代码 在模型选择器中新增自定义提供商选项。 方案二:API 兼容适配 将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。 方法一(目前存在问题) 具体做法可参考修改Copilot chat插件增加自定义模型提供商 这里只说一下这个方法存在的问题: 1. 官方开源的Copilot chat插件版本通常滞后于最新版,可能存在未来兼容性问题 2.

Qwen3论文阅读

1、核心架构改进: 1)注意力机制: 采用了 GQA (Grouped Query Attention) 以提高推理效率 什么是GQA注意力机制? 介于传统的多头注意力机制以及极简的MQA注意力机制之间,目标为平衡生成速度以及模型精度 首先我们先看一看多头注意力机制以及多询注意力机制的区别 MHA (Multi-Head Attention): 每个 Query (Q) 都有对应的 Key (K) 和 Value (V)。虽然效果最好,但在推理时需要缓存大量的 KV 状态(KV Cache),导致内存占用高,推理速度慢。 MQA (Multi-Query Attention): 所有的 Q 共享同一组 K 和 V。这极大地减少了内存占用和数据传输,速度极快,但由于表达能力大幅下降,模型性能(准确度)通常会受损。 GQA:

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程(AUTOMATIC1111 版) 本教程基于 Windows 系统,适合 AI 绘画爱好者或初学者,旨在帮助大家从零部署并运行本地的 Stable Diffusion 模型界面(Web UI)。我们将从克隆项目、配置环境到运行界面,并附上常见网络问题的解决方案。 一、准备工作 1. 安装依赖 * Python 3.10.x * Git(推荐官网下载最新版) * 显卡驱动 + CUDA(NVIDIA 用户,建议驱动更新到最新版) 安装好后,确保 Python 和 Git 都加入了系统环境变量。 二、克隆项目仓库 使用如下命令克隆 AUTOMATIC1111 的 Web UI 项目: