Claude部署(copilot反向代理)

一、教育邮箱认证

1、进行教育邮箱认证可免费使用claude pro 2年,有机会的话可以进行认证,无法教育认证的话只能花钱充claude的会员了,如何进行教育认证可观看该Up的视频

超简单一次通过Github学生认证,逐步详细视频教程_哔哩哔哩_bilibili

2、教育认证通过后在GitHub个人主页下的Copilot/Features中开启Copilot Pro

二、服务器上配置Copilot反向代理

1、配置nodejs环境

在官网https://nodejs.org/en/download/package-manager,下载nodejs安装包(Linux)

下载完成后将压缩包传到服务器上进行解压,目录如下

创建软连接,使得在任意目录下都可以试用直接使用node命令和npm命令

ln -s /root/node-v24.13.1-linux-x64/bin/node /usr/local/bin/node ln -s /root/node-v24.13.1-linux-x64/bin/npm /usr/local/bin/npm 

命令执行成功后,切到“usr/local/bin”目录,可以看到该目录下有两个文件

编辑环境配置文件,首先cd 到根目录

然后编辑etc下的profile文件

vim /etc/profile

在该文件的最后一行加入两行export的代码,修改完成后执行source /etc/profile 刷新环境配置

检查node及npm版本,出现版本号则nodejs环境配置完成

2、科学上网

3、配置copilot环境

npm install -g copilot-api copilot-api start

如果出现这种情况

复制copilot-api的绝对路径,再start

/root/node-v24.13.1-linux-x64/bin/copilot-api start

成功start后的终端会出现以下模型

三、本地部署claude

1、安装最新 NodeJS 环境,下载安装包(Windows版本)一路下一步安装即可:https://nodejs.org/zh-cn/download

2、安装claude code

在cmd终端中输入npm install -g @anthropic-ai/claude-code

3、使用claude code,开启两个cmd终端,其中一个用来远程链接服务器,注意服务器上要开启VPN代理,copilot-api start也要运行

ssh 用户名@IP地址

另一个cmd终端,用来使用claude code,在终端中输入claude即可启动

如果出现 claude code 无法连接到 Anthropic 服务,修改claude.json文件

Unable to connect to Anthropic services Failed to connect to api.anthropic.com: ERR BAD REQUEST lease check your internet connection and network settings. Note: Claude Code might not be available in your country, Check supported countries atnttps://anthropic.com/supported-countriesS E:ltoollclaude code> 

加一行字段,"hasCompletedOnboarding": true

如果出现需要登陆的情况,在终端中输入以下命令,关闭终端后开启,重新输入claude。如果依然还需要登陆,删掉.claude.json文件后再来一次

setx ANTHROPIC_API_KEY "sk-anything" setx ANTHROPIC_BASE_URL "http://127.0.0.1:4141"

参考资料

超简单!手把手教你玩转ClaudeCode,无魔法不会员!-腾讯云开发者社区-腾讯云

Claude Code+Claude-4.5代理配置全流程:从零开始搭建AI编程环境!_claude code 代理-ZEEKLOG博客

Linux环境安装配置nodejs详细教程_linux安装nodejs-ZEEKLOG博客

解决:claude code 无法连接到 Anthropic 服务_unable to connect to anthropic services failed to -ZEEKLOG博客

Read more

基于Whisper-large-v3的多语言翻译系统开发

基于Whisper-large-v3的多语言翻译系统开发 想象一下这样的场景:一场国际线上会议正在进行,参会者来自世界各地,说着不同的语言。一位德国同事用德语发言,一位日本伙伴用日语提问,而你作为会议组织者,需要实时理解所有人的发言,并确保沟通顺畅。传统做法是雇佣多名翻译,成本高昂且响应延迟。现在,有了基于Whisper-large-v3构建的多语言翻译系统,这一切都可以自动化完成,而且成本只是传统方案的零头。 本文将带你一步步构建这样一个系统,从语音识别到文本翻译,形成一个完整的流水线。无论你是想为跨国团队开发内部工具,还是想为内容平台添加多语言字幕功能,这套方案都能为你提供一个坚实的起点。 1. 为什么选择Whisper-large-v3? 在开始动手之前,我们先聊聊为什么Whisper-large-v3是构建多语言翻译系统的理想选择。 Whisper-large-v3是OpenAI开源的语音识别模型,它最大的特点就是“多语言”和“高精度”。这个模型在超过100万小时的音频数据上训练过,支持99种语言的识别,包括英语、中文、法语、德语、日语、韩语等主流语言,甚至还能识别

用Z-Image-Turbo做AI绘画:16GB显存轻松跑,中英文提示全支持

用Z-Image-Turbo做AI绘画:16GB显存轻松跑,中英文提示全支持 你是否试过在本地部署一个文生图模型,结果被漫长的下载、复杂的环境配置、显存不足的报错反复劝退?是否期待一款真正“开箱即用”的AI绘画工具——不用等权重下载、不需手动编译、不靠A100/H100也能跑出高清图?Z-Image-Turbo就是那个答案。它不是又一个参数堆砌的庞然大物,而是通义实验室用蒸馏技术“瘦身”后的高效能选手:8步出图、照片级质感、中英文提示词原生支持、16GB显存稳稳运行。更重要的是,它已为你打包成即启即用的ZEEKLOG镜像——连Gradio界面、API服务、进程守护都配齐了,你唯一要做的,就是打开浏览器。 本文不讲论文推导,不列训练细节,只聚焦一件事:如何用最短路径,把Z-Image-Turbo变成你手边真正好用的AI画笔。从零启动到生成第一张带中文标题的海报,全程无需联网、不碰conda环境、不改一行代码。如果你有一块RTX 4090或A6000,甚至是一台搭载RTX 3090的旧工作站,这篇文章就是为你写的。 1. 为什么Z-Image-Turbo值得你立刻试试 在AI绘画

【Stable Diffusion模型】技术深度解析

【Stable Diffusion模型】技术深度解析

文章目录 * 目录 * 一、前置认知:Stable Diffusion核心基础信息 * 1.1 Stable Diffusion核心基础属性 * 1.2 Stable Diffusion发展历程关键节点 * 二、Stable Diffusion整体架构 * 2.1 Stable Diffusion整体核心架构 * 2.2 Stable Diffusion核心运行流程 * 流程1:文生图(Text-to-Image,SD最核心场景) * 流程2:图生图(Image-to-Image,二次创作场景) * 三、Stable Diffusion核心模块与关键公式详解 * 3.1 核心理论:扩散模型的「正向扩散+逆向降噪」双过程 * 3.1.1 正向扩散过程(训练阶段,像素级,SD预训练用)

AI绘画隐私保护方案:麦橘超然本地部署实践

AI绘画隐私保护方案:麦橘超然本地部署实践 1. 为什么本地AI绘画正在成为创作者刚需 你有没有过这样的经历:输入一段精心构思的提示词,点击生成,几秒后画面出现——但心里却隐隐不安?那些关于人物肖像、产品原型、未发布设计稿的图像,正悄然上传至某个远程服务器,存入不可见的数据库。在AI绘画工具遍地开花的今天,数据不出本地已不再是技术极客的执念,而是职业插画师、独立设计师、品牌视觉负责人的真实工作底线。 麦橘超然(MajicFLUX)离线图像生成控制台,正是为这一需求而生。它不是又一个云端API的网页包装,而是一套真正“关上门就能用”的本地解决方案:模型预置、服务自启、全程离线、零网络外传。更关键的是,它不靠牺牲画质换隐私——通过float8量化与CPU卸载双引擎,在RTX 3060(12GB显存)甚至GTX 1660 Super(6GB显存)上,仍能稳定输出1024×1024分辨率、电影级质感的AI图像。 这不是理论推演,而是我们连续三周在真实创作场景中验证过的落地路径。下文将完全跳过概念铺垫,直击三个核心问题: * 它如何从根源上切断数据外泄可能?