VS-CODE 里的github copilot 不支持自己配置模型api

1. 关于配置自定义 Claude API 的支持情况

  • 结论:不支持。
  • 机制说明
    • VS Code 官方 GitHub Copilot 扩展(包括 Agent 功能)强制通过 GitHub 的代理服务器进行鉴权和路由。
    • 模型切换:GitHub Copilot 允许在订阅权限范围内切换底层模型(例如从 GPT-4o 切换至 Claude 3.5 Sonnet),但这使用的是 GitHub 的企业/个人订阅配额。
    • API Key 限制:无法在官方扩展设置中输入个人的 sk-ant-... (Anthropic API Key) 或自定义 Endpoint。
  • 替代方案(非官方扩展)
    • 若必须使用个人 Claude API Key,需使用 ContinueRoo Code (Clin) 等开源 VS Code 扩展,这些扩展支持 "Bring Your Own Key" (BYOK) 模式。

2. 让 Copilot 浏览 URL 或执行搜索的操作步骤

GitHub Copilot 本身不具备全功能的无头浏览器(Headless Browser),其“浏览”和“搜索”功能依赖于 Bing 搜索集成和上下文引用。

操作 A:执行网络搜索(基于 Bing)

此功能通常由意图识别自动触发,或通过特定命令调用。

  1. 前置检查
    • 打开 VS Code 设置 (Ctrl + ,)。
    • 搜索 github.copilot.chat.search.enabled(或类似 Search 关键词),确保该选项已勾选。
  2. 执行步骤
    • 打开 Chat 面板 (Ctrl + Alt + I / Cmd + Alt + I)。
    • 输入包含时效性信息的查询,例如:“React 19 的最新 breaking changes 是什么?”
    • 观察行为:Copilot 会在回复前显示 “Thinking...” 或 “Searching Bing...”,并列出引用的网页来源。
    • 显式触发(部分版本支持):在输入框尝试输入 @web(如果已安装相关 Agent)后接查询内容。
操作 B:浏览特定 URL 内容

Copilot 无法像人类一样渲染和交互网页,它仅能抓取页面文本。

  1. 直接引用法
    • 在 Chat 输入框中直接粘贴完整 URL。
    • 追加指令:“请阅读此链接内容并总结...” 或 “基于此链接的代码段解释...”。
    • 限制:此方法仅对静态 HTML 页面有效。对于需要登录、复杂的 SPA(单页应用)或有反爬虫机制的网站(如某些文档站、Twitter),Copilot 会提示无法访问。
  2. 使用上下文附件(Context Menu)
    • 若 VS Code 版本支持“Attach Context”(回形针图标):
    • 点击输入框旁的“附件”图标。
    • 选择 Paste URLDocumentation(如果已配置特定文档源)。
操作 C:使用 @github 搜索仓库资源

针对 GitHub 托管的代码或 Issue,不走通用网页浏览,而是走 GitHub API。

  1. 步骤
    • 在 Chat 中输入 @github
    • 接指令:@github search issues regarding "memory leak"
    • 或:@github explain this repository's url routing logic

Read more

人工智能:大语言模型(LLM)原理与应用实战

人工智能:大语言模型(LLM)原理与应用实战

人工智能:大语言模型(LLM)原理与应用实战 1.1 本章学习目标与重点 💡 学习目标:掌握大语言模型的核心原理、训练流程与微调方法,学会基于开源大语言模型完成定制化对话与文本生成任务。 💡 学习重点:理解大语言模型的Transformer decoder-only架构,掌握指令微调与RLHF技术,能够使用LoRA高效微调开源LLM。 1.2 大语言模型的核心概念与发展历程 1.2.1 什么是大语言模型 💡 大语言模型(Large Language Model, LLM)是参数量达到十亿级甚至万亿级的Transformer-based模型。它通过在海量文本数据上进行预训练,学习语言的语法、语义、常识和推理能力。 LLM的核心能力包括文本生成、理解、翻译、摘要、问答等。它可以处理复杂的自然语言任务,无需针对每个任务单独设计模型结构。 LLM与传统NLP模型的核心区别: * 参数量级:传统模型参数量通常在千万级,LLM参数量可达十亿到万亿级。 * 训练数据:传统模型依赖标注数据,LLM使用海量无标注文本进行预训练。 * 能力边界:传统模型只能处理单一任务,LL

酒馆SillyTavern使用第三方API接口,打造专属AI聊天

酒馆SillyTavern使用第三方API接口,打造专属AI聊天

一、酒馆SillyTavern简介 SillyTavern(简称 ST,中文俗称酒馆)是一个本地安装的用户界面,可让你与文本生成 LLM、图像生成引擎和 TTS 语音模型进行交互。我们的目标是让用户尽可能地发挥实用性并控制他们的 LLM 提示,让陡峭的学习曲线成为乐趣的一部分。 二、安装 为何要使用酒馆? SillyTavern 相比 ChatGPT/Claude/Gemini 等 LLM 服务的网页或 App 聊天界面,能够提供更高的灵活性。 SillyTavern 是一款可实现以下用途的应用程序: 它是一个处理与 AI 语言模型通信的用户界面。 它可以让你创建新的角色卡(提示),并轻松地在它们之间切换。 它允许你导入其他人创建的角色。 它将保留你与角色的聊天记录,允许你随时恢复、开始新聊天、查看旧聊天等。 在后台,它会为你准备 AI 提示。具体来说,它会发送系统提示(给

OpenClaw漏洞预警:如何给AI代理加上“记录仪”?

OpenClaw漏洞预警:如何给AI代理加上“记录仪”?

近日,工信部网络安全威胁和漏洞信息共享平台、国家互联网应急中心连续发布风险提示:开源AI智能体OpenClaw因默认安全配置脆弱、不当配置等问题存在较高安全风险。 当AI代理被赋予系统级权限,每一次“幻觉”或攻击都可能酿成数据浩劫 而每一次操作在操作系统中留下的痕迹,正是追溯这些风险的关键线索。移动云云日志可为移动云云主机提供命令级、文件级全量日志采集,搭配智能关键词告警与日志长期存储,让云主机上的每一行指令都有迹可循,为AI应用构建日志可追溯的安全防线。 四大高危风险,不容忽视 OpenClaw作为开源AI智能体框架,在提升自动化能力的同时,其默认配置存在的安全漏洞可能被恶意利用,导致企业核心数据面临严重威胁。 “AI智能体的安全风险不在于AI本身,而在于我们能否看清AI在系统层面的每一个动作。看不见的风险才是真正的风险。” 而移动云云日志,就是要让这些“看不见”的风险,变得“看得见”。 四大核心能力,构建AI安全防线 全量行为采集,不留死角 支持主流操作系统(CentOS、Ubuntu、WindowsServer等),可采集Shell命令历史、文

保姆级教程:从零搭建AI系统权限控制系统

保姆级教程:从零搭建AI系统权限控制系统

保姆级教程:从零搭建AI系统权限控制系统 手把手教你,如何在3小时内搭建完整的AI权限安全架构,避免Meta式的数据“裸奔”事故 前言:为什么要学这个? 2026年3月22日,Meta AI发生重大数据泄露事故——敏感数据“全员可见”2小时。如果你也正在开发AI项目,这种事故也可能发生在你身上。 本教程将带你从零开始,一步步搭建一个完整的、可实战的AI权限控制系统。无论你是个人开发者、小团队,还是大型AI项目,都能直接应用。 预计完成时间: 3小时 所需技能: 基础Python、Linux命令行、Git 第一阶段:准备工作(15分钟) 第1步:环境准备 # 1. 安装Python和相关依赖 pip install casbin flask sqlalchemy redis # 2. 安装数据库(推荐PostgreSQL) sudo apt-get install postgresql