GitHub Copilot 使用笔记

GitHub Copilot 是 VSCode 自带的 AI Agent 插件,需要登录 GitHub 账号使用,分为免费版和付费版。

关于个人额度,可以在 Github 的 Copilot 菜单里查看

额度面板

支持模型

模型列表

添加第三方模型

通过 Manage Models 选中对应厂商。
可以通过 OpenRouter 来导入免费的模型,需要先到 OpenRouter 注册 API Key,输入后即可使用,也可以使用兼容 OpenAI 接口的三方 API,比如 硅基流动 SiliconFlow


使用帮助信息

切换到 Ask 模式,输入 /help 即可获取帮助命令,可以查看当前有什么可用命令和使用方法。

翻译后的内容,方便查看,注意 @ 和 / 开头都是指令,通常在 Agent 编辑器里, @开头代表查找/文件定位,/ 开头代表执行指令 :

  • 输入 /help 可以获取以下帮助信息

@workspace:询问关于你的工作区的问题

  • /explain:解释当前编辑器中代码的工作原理
  • /tests:为选中的代码生成单元测试
  • /fix:为选中代码中的问题提出修复方案
  • /new:在工作区中创建新文件或项目的脚手架代码
  • /newNotebook:创建一个新的 Jupyter Notebook
  • /setupTests:在项目中设置测试(实验性功能)

@vscode:询问关于 VS Code 的问题

  • /search:生成工作区搜索的查询参数
  • /startDebugging:生成启动配置并在 VS Code 中开始调试(实验性功能)

@terminal:询问如何在终端中执行某些操作

  • /explain:解释终端中的内容

@github:获取基于网页搜索和代码搜索的答案,可以用来阅读 Github 上的源码项目

使用建议
为了获得更好的对话体验,请像与真正的程序员交流一样提问:

  • 展示代码:打开相关文件并选中最重要的代码行
  • 持续优化:通过追问、补充说明、提供错误信息等方式不断完善对话

插件扩展

Marketplace
通过 GitHub Marketplace 可以获取对应的插件进行安装,扩展 Agent 功能,这里需要我们在市场里授权用户安装插件(Github 插件是和用户本体绑定的)。


授权通过后,在 VSCode 中使用 Ctrl + Shift + P 输入 Reload Window 重新加载窗口,即可看到 @docker 指令可以使用。

开发实践

注释 + Tab 生成功能

可以在文件头部写入注释,Agent 会根据注释自动生成对应代码,减少代码书写。

// 帮我生成 xxxx // 等待自动补全 Tab 

Markdown 文档生成

可以通过 Markdown 文档形式说明自己的要求,然后采用 #file:读取MD文档位置 引用文档,让 Agent 自动完成文档内指定的任务。

LLM 模型调用

GitHub Copilot 官方也提供了大模型的调用能力

可以基于 Agent 开发基于 LLM 交互的前后端一体化内容。
通过 Marketplace 可以很方便地获取模型使用的源码,选中 Model 后随便选中一个模型。

点击 Playground,在里面选中 Code 就可以得到对应的调用源码,再根据 Agent 进行转换即可。


使用时需要申请 API Key(GitHub Token)。


通过 Use This Model 访问去创建免费 Token Key,再放到调用代码里使用。


个人体验

后续用 claude 和 cursor 就回不去了,截止我最近一次使用的感受:

  • 整体业务理解程度一般, 单一业务处理能力强,但是最近看更新了不少东西,应该是有改进的
  • 集成在 VSCode 编辑器中,对经常用 VSCode 编辑器开发的人比较友好,免费额度日常开发也够用
  • 插件和 Github 账号绑定存在一定门槛
  • 不用科学就可以支持用 GPT 模型,但是内置模型比较少

相关学习网站

Read more

FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧)

FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧) 📚 目录导航 文章目录 * FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧) * 📚 目录导航 * 概述 * 一、HDMI基础概念 * 1.1 HDMI接口介绍 * 1.1.1 HDMI接口历史与发展 * 1.1.2 HDMI接口引脚定义 * 1.1.3 HDMI版本对比 * 1.2 HDMI版本演进 * 1.2.1 HDMI 1.4特性 * 1.2.2 HDMI 2.0特性 * 1.2.3 HDMI 2.1特性

By Ne0inhk
Nano Banana进行AI绘画中文总是糊?一招可重新渲染,清晰到可直接汇报

Nano Banana进行AI绘画中文总是糊?一招可重新渲染,清晰到可直接汇报

文章目录 * 1. 为什么 Nano Banana 生成的中文经常不清晰? * 2. 解决思路:Nano Banana + Seedream 4.5 的两段式工作流 * 3. 实战:先用 Nano Banana 生成架构图(中文会糊) * 4. 部署 Personal LLM API,并配置 Seedream 4.5 * 5. 用 Cherry Studio 配置已部署的 LLM 接口 * 6. 关键一步:用 Seedream 4.5 对“中文文字重新渲染” * 7. 效果对比:字清晰、无错位、图形保持不变

By Ne0inhk

5分钟部署麦橘超然Flux,低显存设备也能玩转AI绘画

5分钟部署麦橘超然Flux,低显存设备也能玩转AI绘画 1. 为什么你值得花5分钟试试这个Flux控制台 你是不是也遇到过这些情况: * 想试试最新的Flux模型,但显卡只有8GB甚至6GB,一加载就报“CUDA out of memory”; * 下载完模型还要手动配置路径、改代码、调参数,折腾两小时还没看到一张图; * 网页版用着方便,但担心隐私泄露、生成被限速、图片被缓存; 别再纠结了——麦橘超然 - Flux 离线图像生成控制台,就是为这类真实场景而生的。它不是又一个需要编译、调参、查文档的实验项目,而是一个开箱即用的本地Web服务:模型已打包进镜像,float8量化技术让DiT主干网络显存占用直降近一半,Gradio界面简洁到连提示词输入框都标好了占位符,连SSH隧道怎么转发都给你写好了命令。 更重要的是,它真的能在你的旧笔记本、远程小内存服务器、甚至实验室里那台只配了RTX 3060的工位机上跑起来。本文不讲原理推导,不堆术语,就带你从零开始,5分钟内完成部署、打开浏览器、输入第一句描述、亲眼看到AI画出赛博朋克雨夜街道——所有操作一步接一步,复制粘贴就能

By Ne0inhk

简单易学的分离式部署小米智能家居Miloco方法

一、安装环境 * Windows用户:安装WSL2以及Docker * macOS/Linux用户:安装Docker 此处不再赘述,网上随便找个教程即可。特别地,对于Windows用户来说,你需要将 WSL2 的网络模式设置为 Mirrored。 二、使用Docker部署Miloco后端 以下均为bash命令。请Windows用户进入WSL2 / Linux、macOS用户进入终端操作: mkdir miloco cd milico vi docker-compose.yml 以下是compose的内容(不会使用vi的同学可以傻瓜式操作:先按i,再使用粘贴功能,然后按冒号,输入wq然后回车,记得关闭输入法): services:backend:container_name: miloco-backend image: ghcr.nju.edu.cn/xiaomi/miloco-backend:latest network_mode:

By Ne0inhk