Claude部署(copilot反向代理)

一、教育邮箱认证

1、进行教育邮箱认证可免费使用claude pro 2年,有机会的话可以进行认证,无法教育认证的话只能花钱充claude的会员了,如何进行教育认证可观看该Up的视频

超简单一次通过Github学生认证,逐步详细视频教程_哔哩哔哩_bilibili

2、教育认证通过后在GitHub个人主页下的Copilot/Features中开启Copilot Pro

二、服务器上配置Copilot反向代理

1、配置nodejs环境

在官网https://nodejs.org/en/download/package-manager,下载nodejs安装包(Linux)

下载完成后将压缩包传到服务器上进行解压,目录如下

创建软连接,使得在任意目录下都可以试用直接使用node命令和npm命令

ln -s /root/node-v24.13.1-linux-x64/bin/node /usr/local/bin/node ln -s /root/node-v24.13.1-linux-x64/bin/npm /usr/local/bin/npm 

命令执行成功后,切到“usr/local/bin”目录,可以看到该目录下有两个文件

编辑环境配置文件,首先cd 到根目录

然后编辑etc下的profile文件

vim /etc/profile

在该文件的最后一行加入两行export的代码,修改完成后执行source /etc/profile 刷新环境配置

检查node及npm版本,出现版本号则nodejs环境配置完成

2、科学上网

3、配置copilot环境

npm install -g copilot-api copilot-api start

如果出现这种情况

复制copilot-api的绝对路径,再start

/root/node-v24.13.1-linux-x64/bin/copilot-api start

成功start后的终端会出现以下模型

三、本地部署claude

1、安装最新 NodeJS 环境,下载安装包(Windows版本)一路下一步安装即可:https://nodejs.org/zh-cn/download

2、安装claude code

在cmd终端中输入npm install -g @anthropic-ai/claude-code

3、使用claude code,开启两个cmd终端,其中一个用来远程链接服务器,注意服务器上要开启VPN代理,copilot-api start也要运行

ssh 用户名@IP地址

另一个cmd终端,用来使用claude code,在终端中输入claude即可启动

如果出现 claude code 无法连接到 Anthropic 服务,修改claude.json文件

Unable to connect to Anthropic services Failed to connect to api.anthropic.com: ERR BAD REQUEST lease check your internet connection and network settings. Note: Claude Code might not be available in your country, Check supported countries atnttps://anthropic.com/supported-countriesS E:ltoollclaude code> 

加一行字段,"hasCompletedOnboarding": true

如果出现需要登陆的情况,在终端中输入以下命令,关闭终端后开启,重新输入claude。如果依然还需要登陆,删掉.claude.json文件后再来一次

setx ANTHROPIC_API_KEY "sk-anything" setx ANTHROPIC_BASE_URL "http://127.0.0.1:4141"

参考资料

超简单!手把手教你玩转ClaudeCode,无魔法不会员!-腾讯云开发者社区-腾讯云

Claude Code+Claude-4.5代理配置全流程:从零开始搭建AI编程环境!_claude code 代理-ZEEKLOG博客

Linux环境安装配置nodejs详细教程_linux安装nodejs-ZEEKLOG博客

解决:claude code 无法连接到 Anthropic 服务_unable to connect to anthropic services failed to -ZEEKLOG博客

Read more

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

https://github.com/MixLabPro/comfyui-mixlab-nodes 彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错 在 ComfyUI 中安装 Mixlab Nodes 插件后,控制台显示其他节点正常,便 Whisper.available False。即使环境里安装了 openai-whisper 和 faster-whisper,问题依然可能存在。 Whisper.available False 本文将分享如何通过修改 __init__.py 进行深度 Debug,并修复 Whisper.py 中的路径逻辑漏洞。 1. 深度排查:让报错“开口说话” Mixlab 的默认日志只提示 False,不显示原因。为了抓出真凶,

本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型

本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型 你好,我是陈涉川,欢迎你来到我的专栏。在上一篇《架构设计:安全 AI 产品的全生命周期(MLSecOps)》中,我们走出了“霍格沃茨的实验室”,直面血肉横飞的真实工程战场,拆解了从需求定义到模型退役的全生命周期(MLSecOps)七阶蓝图。我们明白了,安全 AI 的落地绝不是丢一个 Python 脚本进 Docker 那么简单,而是一场融合了算法、运维与合规的系统级工程。 既然掌握了宏观架构,本篇我们将直接拔剑出鞘,扎进生成式 AI 落地最硬核、最逼仄的深水区——物理隔离的内网环境。如何在严守数据安全与合规红线的前提下,在算力捉襟见肘的企业内网中,将百亿参数的 Llama 或 Qwen 部署上线,并将其微调成一个拥有坚定防守立场、断网也能满血运行的“企业专属安全大脑”! 引言:跨越红线,

大学生AI写作工具全流程应用指南(从开题到答辩)

说明:本清单按论文写作时间线划分6个核心阶段,明确各阶段工具搭配、操作要点及注意事项,可直接对照执行,兼顾效率与学术合规性。 阶段1:开题阶段(核心目标:确定选题+完成开题报告) 工具搭配:豆包AI + PaperRed 操作步骤: 1. 选题构思:打开豆包AI,输入“XX专业(如汉语言文学)本科论文选题方向”,获取5-8套开题思路;同时用PaperRed的“学术热点图谱”功能,输入核心关键词,查看近3年文献增长趋势与研究空白区,筛选出兼具可行性与创新性的选题。 2. 框架及内容生成:在PaperRed中选择“开题报告”,输入确定的选题,选择自己学校的模板,生成包含“研究背景、目的意义、研究方法、进度安排”的标准框架及内容并且格式也是调整好的,生成基础内容后人工优化,确保逻辑连贯。 注意事项:选题需结合自身专业基础,避免过度依赖AI选择超出能力范围的课题。 阶段2:文献搜集与梳理阶段(核心目标:高效获取权威文献+

一文详解llama.cpp:核心特性、技术原理到实用部署

目录 * 项目定位与核心特性:介绍llama.cpp是什么、核心设计哲学及主要特点。 * 核心架构与技术原理:分析其软件架构、GGML基础库、GGUF文件格式和量化技术。 * 环境部署与实践指南:提供安装部署的多种方式、基本运行方法和API服务配置。 * 进阶特性与扩展功能:介绍路由模式、工具调用、平台移植和企业级部署方案。 🎯 项目定位与核心特性 llama.cpp是一个用纯C/C++编写的开源大语言模型推理框架,最初为在本地运行Meta LLaMA模型而创建。它的核心设计哲学是极简、高效与可移植,旨在让大模型推理摆脱对GPU和复杂Python环境的依赖。 核心设计哲学 1. 极简与可移植性:纯C/C++实现意味着几乎零外部依赖,能在从云服务器到树莓派的各种设备上编译运行。 2. CPU优先优化:虽然后期加入了强大的GPU支持,但其初心是让LLM在普通CPU上高效运行,这使其在众多依赖GPU的框架中独树一帜。 3. 极致性能追求:通过底层硬件指令集优化和量化技术,实现在有限硬件上的惊人性能表现。 主要特点对比 特性维度llama.cpp典型Pyth