VsCode远程Copilot无法使用Claude Agent问题

最近我突然发现vscode Copilot中Claude模型突然没了,我刚充的钱啊!没有Claude我还用啥Copilot

很多小伙伴知道要开代理,开完代理后确实Claude会出来,本地使用是没有任何问题的,但是如果使用远程ssh的话,会出现访问异常,连接不上的情况。这时候很多小伙伴就在网上寻找方法,在vscode setting中添加这么一段代码。可以看看这篇博客

"http.proxy": "http://127.0.0.1:1082", "remote.extensionKind": { "GitHub.copilot": [ "ui" ], "GitHub.copilot-chat": [ "ui" ], "pub.name": [ "ui" ] }

代理设置在本地回还地址,然后强制copilot也在本地上运行,这时候你会发现Claude模型出来了,ask也可以正常询问,但是Agent模式无法正常编辑,会有一段这么个提醒:

copilotAllow edits to sensitive files?The model wants to edit files outside of your workspace

这是提醒你工作区错误,但是明明发现我的工作区没有错。这其中的问题就出在了"GitHub.copilot": ["ui" ],
    "GitHub.copilot-chat": ["ui"],这两行代码会强制你的copilot在本地运行,然后你的远程路径在本地是无法识别的,所以就告诉你Workspace异常。

那么如何解决呢?

首先我们的代理地址(我这里的端口是1082,根据自己的情况来)是需要的,只是加错了位置。我们先把本地的配置文件里面的这些代码注释掉

然后,我们打开ssh的配置文件,加入这么一段

将本地代理的端口,在远程穿透回来,此时远程服务器也用上了代理

然后再在远程的settings.json中配置代理端口

{ "http.proxy": "http://127.0.0.1:1082", "http.proxyStrictSSL": false, "remote.extensionKind": { "pub.name": [ "ui" ] } }

重启vscode,你会发现Claude又回来了QAQ

并且Agent模型也可以正常使用了,因为工作区一直在远程上,不会出现问题

Read more

去AI味提示词大全:25个实用Prompt帮你降低AI率

去AI味提示词大全:25个实用Prompt帮你降低AI率 说实话,我之前也是那种直接复制AI生成内容就交上去的人。结果可想而知——知网AIGC检测率直接飙到92%,导师看完脸都绿了。后来花了大半个月研究怎么降AI率,试了各种方法,踩了无数坑,总算摸索出一套比较靠谱的提示词体系。 今天把这25个去AI味提示词整理出来分享给大家,都是我反复测试过的,配合专业降AI工具使用效果更好。 为什么提示词能降低AI率? 在聊具体的降AI Prompt之前,先说说原理。 AI检测工具判断内容是否由AI生成,主要看几个维度:词汇多样性、句式结构、语义连贯模式、以及一些"AI味"特征词。比如"首先…其次…最后"这种排列组合,"值得注意的是"这种过渡词,AI特别喜欢用。 所以我们的提示词策略就是:从源头上让AI生成的内容更像人写的。 不过我得先说一句大实话:光靠提示词,降AI率是有上限的。根据我的测试,好的提示词大概能把AI率从90%+降到40%-60%左右。

开源逆袭!Wan2.1让家用电脑也能跑AI视频生成

开源逆袭!Wan2.1让家用电脑也能跑AI视频生成

文章目录 * 前言 * 【视频教程】 * 1.软件准备 * 1.1 ComfyUI * 1.2 文本编码器 * 1.3 VAE * 1.4 视频生成模型 * 2.整合配置 * 3. 本地运行测试 * 4. 公网使用Wan2.1模型生成视频 * 4.1 创建远程连接公网地址 * 5. 固定远程访问公网地址 * 总结 前言 当商业AI视频模型还在按分钟计费时,Wan2.1开源模型已经实现了平民化突破!这款由国内团队开发的文生视频工具,在VBench榜单上多项指标超越同类闭源产品,尤其擅长生成自然场景和人物动作。最令人惊喜的是硬件门槛——普通家用N卡就能运行,8G显存即可生成720P视频,让独立创作者也能玩转AI视频创作。 作为测试了10+视频模型的创作者,Wan2.1给我的最大惊喜是"场景一致性"。生成"

深度盘点:GitHub 上十大必装 Claude Skill,让你的 AI 助手效率提升 4 倍

深度盘点:GitHub 上十大必装 Claude Skill,让你的 AI 助手效率提升 4 倍

深度盘点:GitHub 上十大必装 Claude Skill,让你的 AI 助手效率提升 4 倍 Claude Code 已经很强大,但如果搭配这些精心设计的 Skills,它将变身超级生产力工具。本文为你深度解析 GitHub 上最受欢迎的 10 大 Claude Skills,帮助你找到最适合的配置方案。 引言:为什么 Claude Skills 如此重要? 在 2025-2026 年,Claude Code 生态经历了爆发式增长。Skills 系统的出现,让 Claude 从一个"对话助手"升级为"专业工具"。通过安装不同的 Skills,你可以:

彻底解决 OpenClaw 总是“失忆”!AI 编程上下文 Token 限制剖析与 6 大扩容实战

彻底解决 OpenClaw 总是“失忆”!AI 编程上下文 Token 限制剖析与 6 大扩容实战

为什么 OpenClaw 上下文记忆这么短?完整原因与解决方案 核心定义: OpenClaw 的上下文记忆短是指其在单次对话中能记住的对话历史和代码内容有限,通常受限于底层模型的 token 窗口(如 128K tokens)和会话管理策略。当对话轮次增多或涉及大量代码文件时,早期内容会被自动遗忘,导致 AI 无法参考之前的讨论或代码修改记录。 OpenClaw 上下文记忆的技术原理 OpenClaw 作为 AI 辅助编程工具,其上下文记忆受三层因素制约: 模型层限制 * Token 窗口上限:底层大语言模型(如 Claude 3.5 Sonnet)的上下文窗口通常为 128K-200K tokens * 1 token ≈ 0.75 个英文单词 或 1-2 个中文字符 * 一个 2000 行的 Python