VsCode远程Copilot无法使用Claude Agent问题,Openrouter断联

笔者在使用服务器写代码,意外发现现vscode Copilot中Claude模型突然没了,如果不采用任何代理,虽然vscode Copilot中Claude模型回来了,但是openrouter的Claude又频繁断联,非常折腾,采用以下操作解决了所有问题。

所有操作在:https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104 的基础上进行改善。

本地端口代理转发

首先,删除服务器上 ~/.bashrc 和 ~/.zshrc 与代理相关的所有内容。

在本地的~/.ssh/config中进行ssh配置

在这里插入图片描述


注意这里的RemotedForward,前面是服务器上的端口,后面是本地的代理端口,建议使用http

服务器代理端口配置

打开服务器上的~/.bashrc 和 ~/.zshrc,添加代理端口

zsh

exportPROXY_PORT="18999"proxy_on(){exporthttp_proxy="http://127.0.0.1:$PROXY_PORT"exporthttps_proxy="http://127.0.0.1:$PROXY_PORT"exportall_proxy="socks5://127.0.0.1:$PROXY_PORT"exportno_proxy="localhost,127.0.0.1,::1,192.168.0.0/16,10.0.0.0/8,172.16.0.0/12,*.local,*.lan,*.cn"if[["$1"!="silent"]];thenecho"Terminal Proxy [ON]: Tunneling to Local 1082 via 18999"fi}proxy_off(){unset http_proxy https_proxy all_proxy echo"Terminal Proxy [OFF]"} proxy_on silent 

bash

exporthttp_proxy="http://127.0.0.1:18999"exporthttps_proxy="http://127.0.0.1:18999"exportall_proxy="socks5://127.0.0.1:18999"exportno_proxy="localhost,127.0.0.1,::1,192.168.0.0/16,10.0.0.0/8,172.16.0.0/12"

配置vscode使用代理

在这里插入图片描述


输入

{ "http.proxy": "http://127.0.0.1:18999", "http.proxyStrictSSL": false, "remote.extensionKind": { "pub.name": [ "ui" ] } } 

重启vscode,问题解决!

请添加图片描述

Read more

Llama-3.2-3B惊艳案例:Ollama部署后3B模型生成的半导体设备进口合规申报材料初稿

Llama-3.2-3B惊艳案例:Ollama部署后3B模型生成的半导体设备进口合规申报材料初稿 最近,我尝试用Ollama部署了Meta最新开源的Llama-3.2-3B模型,想看看这个只有30亿参数的小模型到底有多大能耐。结果让我大吃一惊——它竟然能生成一份相当专业的半导体设备进口合规申报材料初稿! 你可能觉得,生成文本嘛,不就是写写文章、编编故事?但这次我测试的是一个非常专业的领域:半导体设备进口。这涉及到技术规格、海关编码、监管要求等一系列复杂内容。让我带你看看这个3B小模型是如何惊艳到我的。 1. 为什么选择Llama-3.2-3B? 在开始展示效果之前,我先简单说说为什么选这个模型。 1.1 模型特点:小而精悍 Llama-3.2-3B是Meta推出的最新一代开源语言模型,虽然只有30亿参数,但在多项基准测试中表现优异。它专门针对多语言对话场景进行了优化,包括代理检索和摘要任务。 几个关键优势: * 体积小:3B参数,部署简单,对硬件要求低 * 性能强:在同类小模型中表现突出 * 多语言:支持多种语言,包括中文 * 开源免费:可以自由使用和部署

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp时遭遇过CUDA相关的"nvcc not found"错误?是否尝试启用GPU加速却始终无法识别显卡?本文将系统梳理llama.cpp项目中CUDA编译的常见问题,提供从环境配置到高级优化的完整解决方案,让你的NVIDIA显卡充分释放AI计算潜能。 CUDA编译基础与环境检查 llama.cpp通过CUDA后端实现NVIDIA GPU加速,其核心配置位于CMakeLists.txt构建系统中。官方推荐的基础编译命令看似简单: cmake -B build -DGGML_CUDA=ON

ComfyUI Manager:AI绘画工作流的终极智能管家

ComfyUI Manager:AI绘画工作流的终极智能管家 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager 想要在ComfyUI中高效管理各类插件和模型?ComfyUI Manager正是你需要的智能管家。这个强大的工具让AI绘画工作流的管理变得简单直观,无论你是初次接触还是资深用户,都能从中获得显著效率提升。 🚀 三分钟快速部署指南 启动ComfyUI Manager的过程比想象中简单。首先确保你的环境满足基本要求:Python 3.8-3.10版本、8GB以上内存、2GB可用存储空间。 一键安装命令: cd custom_nodes && git clone https://gitcode.com/gh_mirrors/co/ComfyUI-Manager comfyui-manager 安装完成后,重启ComfyUI应用程序,你将在主菜单中看到"Manager&

github copilot学生认证教程,免费使用两年Copilot Pro!!(避免踩坑版)

github copilot学生认证教程,免费使用两年Copilot Pro!!(避免踩坑版)

先放结果,本人是先后申请了三次: 1、第一次直接用的学生证,打开对着电脑摄像头直接拍了一张,失败了,如下,理由是没有开启双重认证!!,并且学生证内页没有学校名称!! 2、第二次开了双重认证之后我又重新提交了一次,这次使用的是学信网上的中英文对照截图,又失败了,理由如下: 简单来说就是,(1)开了代理;(2)定位不在学校附近,也就是与主页信息处的Location不相符(这个后面会讲!);(3)个人信息不完整 3、在前面所有错误修改完善之后,我又查看了大量的相关帖子和教程,最终打造出一个完美的申请流程,终于出现了这个,而且是秒通过!!! --------------------------------------------------------------------------------------------------------------------------------- 本文所有步骤均为实操,安全有保障,帖子随意看,对您有用的话还希望给个三连,祝好运!! 下面开始手把手教程,保证详细,仅此一篇足以!!! 一、申请前提 1、GitHub账号一个,ht