VS-CODE 里的github copilot 不支持自己配置模型api

1. 关于配置自定义 Claude API 的支持情况

  • 结论:不支持。
  • 机制说明
    • VS Code 官方 GitHub Copilot 扩展(包括 Agent 功能)强制通过 GitHub 的代理服务器进行鉴权和路由。
    • 模型切换:GitHub Copilot 允许在订阅权限范围内切换底层模型(例如从 GPT-4o 切换至 Claude 3.5 Sonnet),但这使用的是 GitHub 的企业/个人订阅配额。
    • API Key 限制:无法在官方扩展设置中输入个人的 sk-ant-... (Anthropic API Key) 或自定义 Endpoint。
  • 替代方案(非官方扩展)
    • 若必须使用个人 Claude API Key,需使用 ContinueRoo Code (Clin) 等开源 VS Code 扩展,这些扩展支持 "Bring Your Own Key" (BYOK) 模式。

2. 让 Copilot 浏览 URL 或执行搜索的操作步骤

GitHub Copilot 本身不具备全功能的无头浏览器(Headless Browser),其“浏览”和“搜索”功能依赖于 Bing 搜索集成和上下文引用。

操作 A:执行网络搜索(基于 Bing)

此功能通常由意图识别自动触发,或通过特定命令调用。

  1. 前置检查
    • 打开 VS Code 设置 (Ctrl + ,)。
    • 搜索 github.copilot.chat.search.enabled(或类似 Search 关键词),确保该选项已勾选。
  2. 执行步骤
    • 打开 Chat 面板 (Ctrl + Alt + I / Cmd + Alt + I)。
    • 输入包含时效性信息的查询,例如:“React 19 的最新 breaking changes 是什么?”
    • 观察行为:Copilot 会在回复前显示 “Thinking...” 或 “Searching Bing...”,并列出引用的网页来源。
    • 显式触发(部分版本支持):在输入框尝试输入 @web(如果已安装相关 Agent)后接查询内容。
操作 B:浏览特定 URL 内容

Copilot 无法像人类一样渲染和交互网页,它仅能抓取页面文本。

  1. 直接引用法
    • 在 Chat 输入框中直接粘贴完整 URL。
    • 追加指令:“请阅读此链接内容并总结...” 或 “基于此链接的代码段解释...”。
    • 限制:此方法仅对静态 HTML 页面有效。对于需要登录、复杂的 SPA(单页应用)或有反爬虫机制的网站(如某些文档站、Twitter),Copilot 会提示无法访问。
  2. 使用上下文附件(Context Menu)
    • 若 VS Code 版本支持“Attach Context”(回形针图标):
    • 点击输入框旁的“附件”图标。
    • 选择 Paste URLDocumentation(如果已配置特定文档源)。
操作 C:使用 @github 搜索仓库资源

针对 GitHub 托管的代码或 Issue,不走通用网页浏览,而是走 GitHub API。

  1. 步骤
    • 在 Chat 中输入 @github
    • 接指令:@github search issues regarding "memory leak"
    • 或:@github explain this repository's url routing logic

Read more

Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战

Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战 前言 在进行 Flutter for OpenHarmony 的智能化应用开发时,集成强大的机器学习(ML)能力是打造差异化体验的关键。mediapipe_core 是谷歌 MediaPipe 框架在 Dart 侧的核心封装库。它能让你在鸿蒙真机上实现极其流畅的人脸检测、手势追踪以及实时姿态估计。本文将深入探讨如何在鸿蒙系统下构建低功耗、高响应的端侧 AI 推理链路。 一、原原理性解析 / 概念介绍 1.1 基础原理 mediapipe_core 作为 MediaPipe 的“神经中枢”

Windows纯本地部署OpenClaude:从零搭建你的7×24小时AI助理,打通微信/飞书

无需云服务器,一台Windows电脑就能让AI助手24小时在线,还能通过手机随时指挥它干活 前言 之前写过一篇用云服务器部署OpenClaude的教程,不少读者反馈:“一定要买服务器吗?我只有一台Windows电脑行不行?” 答案是:当然可以! OpenClaude本来就是完全支持本地部署的开源AI助手框架。你只需要一台Windows电脑,就能跑起一个完整的AI服务,而且可以通过微信、飞书随时随地指挥它——查文件、开软件、管理电脑,甚至让它在你睡觉的时候帮你处理任务。 这篇文章将手把手教你在Windows环境纯本地部署OpenClaude,并打通飞书和企业微信,全程不需要买云服务器。 一、先搞懂:三种部署方式,你选哪个? OpenClaude支持三种部署模式,先看这张图快速理解区别: 部署方式架构优点缺点本地部署全在本地电脑无需服务器、免费、隐私安全电脑关机AI就下线云端部署全在云服务器7×24小时在线、稳定需要付费买服务器混合部署云端大脑+本地手脚24小时在线+能操作本地电脑架构复杂、需要两台机器 本文选择第一种:纯本地部署。虽然电脑关机时AI会下线,但

GLM-4-9B开源大模型:超越Llama-3-8B的全能AI助手

GLM-4-9B开源大模型:超越Llama-3-8B的全能AI助手 【免费下载链接】glm-4-9b-hf 项目地址: https://ai.gitcode.com/zai-org/glm-4-9b-hf GLM-4-9B作为智谱AI最新一代GLM-4系列的开源版本,凭借在多维度评测中超越Llama-3-8B的卓越表现,为AI开发者和企业用户带来了功能全面且高性能的本地化部署选择。 行业现状:开源大模型进入性能竞赛新阶段 2024年以来,大语言模型领域呈现"开源加速、性能跃升"的显著特征。随着Meta Llama-3系列的发布,开源模型与闭源商业模型的性能差距持续缩小,8B-10B参数区间成为技术突破的焦点战场。这一量级模型兼具性能与部署灵活性,既能满足企业级应用需求,又可在消费级硬件上实现高效运行,成为推动大模型普及化的关键力量。据行业研究显示,2024年第二季度,开源大模型的企业采用率同比提升217%,其中10B以下参数模型占比超过65%。 模型亮点:全方位超越同类竞品的技术突破 GLM-4-9B在核心能力上实现了对Llama-3-8B的全面超越,通过权威评测数据构

开源大模型怎么玩?Llama-Factory教你快速构建行业专用AI

开源大模型怎么玩?Llama-Factory教你快速构建行业专用AI 在医疗报告自动生成、金融合规问答、法律文书辅助撰写等场景中,通用大模型常因缺乏领域知识而“答非所问”。尽管像 Qwen、LLaMA 这类基座模型具备强大的语言能力,但要让它们真正理解“急性心肌梗死的ICD编码”或“资管新规第十七条”,仅靠提示词工程远远不够。 于是,微调(Fine-tuning)成了破局的关键——将企业私有知识注入大模型,打造专属智能体。然而,传统微调流程动辄需要编写数十行训练脚本、配置分布式环境、调试显存溢出问题,对非专业团队而言无异于“从零造车”。 有没有一种方式,能让一个不懂CUDA的业务人员,在两小时内完成一次高质量的模型定制? 答案是:有,而且已经开源了。 当微调变成“搭积木” Llama-Factory 正是在这个背景下崛起的明星项目。它不只是一套代码库,更是一个面向落地的“大模型工厂流水线”,把原本复杂的技术链路封装成可点击、可配置、可复现的标准模块。 你不再需要手动写 Trainer 参数、处理 tokenizer 对齐问题,