VS Code Copilot 完整使用教程(含图解)

VS Code Copilot 完整使用教程(含图解)

一、GitHub Copilot 概述

GitHub Copilot 是一款集成在 Visual Studio Code 中的 AI 驱动编码助手,它基于公共代码仓库训练而成,能够支持大多数编程语言和框架。通过自然语言提示和现有代码上下文,Copilot 可提供实时代码建议解释说明自动化实现,显著提升开发效率。

核心功能亮点

  • 智能代码补全:输入时提供单行到整函数级别的实时建议,支持多种编程语言
  • 自主编码模式(Agent Mode):根据自然语言指令,自动规划并执行复杂开发任务,跨文件协调修改
  • 自然语言交互:通过聊天界面与代码库对话,提问、解释代码或指定修改需求
  • 多文件批量修改:单个指令即可应用更改到项目中多个文件,AI 会分析项目结构并进行协调修改
  • 模型灵活切换:可根据速度、推理能力或特定任务需求切换不同 AI 模型,支持接入外部模型

二、安装与设置步骤

获取访问权限

不同用户类型需通过以下方式获取 Copilot 访问权限:

用户类型访问方式说明
个人用户注册 Copilot Free 免费计划(每月有限制)或付费订阅(无限使用),新用户可享受 30 天免费试用
组织/企业成员通过组织管理员分配的订阅访问,或访问 GitHub 设置页面 申请组织提供的 Copilot 权限

详细安装流程

活动栏 Accounts 菜单 选择 Sign in with GitHub to use GitHub Copilot

Accounts menu in VS Code, showing the option to sign in with GitHub to use GitHub Copilot.

Copilot 状态栏菜单选择 Sign in to use Copilot

Sign in to use Copilot from the Copilot status menu.

切换账号(如需)
若需使用其他账号,通过活动栏的 Accounts 菜单 登出当前账号

Accounts menu in VS Code, showing the option to sign out of the current GitHub account.

重新登录方式:

登录 GitHub 账号
选择 Sign in 登录账号(若未登录),无订阅用户将自动注册 Free 计划

Sign in to your GitHub account or use Copilot if you're already signed in.

启动设置向导
悬停状态栏中的 Copilot 图标,选择 Set up Copilot

Hover over the Copilot icon in the Status Bar and select Set up Copilot.

高级设置选项

工作区禁用:在扩展视图(⇧⌘X)中找到 GitHub Copilot,选择 禁用(工作区) 并重启扩展

Screenshot that shows the GitHub Copilot extension in the Extensions view, with the option to disable it for the workspace.

隐藏 AI 功能:通过命令面板(⇧⌘P)运行 Chat: Hide AI Features 完全隐藏 Copilot 功能

Screenshot that shows the Copilot menu in the VS Code title bar, with the option to hide AI features.

三、快速入门:构建任务管理应用

通过实战项目学习 Copilot 核心功能,本教程将创建一个包含添加、删除和标记任务功能的响应式网页应用。

前提条件

  • 已安装 VS Code
  • 已完成 Copilot 访问设置(参考上文)

Step 1: 体验智能代码补全

  1. 创建项目文件夹并在 VS Code 中打开,新建 index.html 文件
  2. Tab 接受建议,完成基础 HTML 结构

如需切换多个建议,可悬停幽灵文本查看导航控件,或使用 ⌥](下一个)和 ⌥[(上一个)快捷键循环选择

Screenshot showing inline suggestion navigation controls.

<body> 标签内继续输入:

<divclass="container"><h1>My Task Manager</h1><formid="task-form">

输入 <!DOCTYPE html>,Copilot 会自动建议完整 HTML 结构(灰色"幽灵文本")

Screenshot showing Copilot suggesting HTML structure completion.

Step 2: 代理模式(Agent Mode)构建完整功能

代理模式能将自然语言需求转化为跨文件的完整实现:

  1. 打开聊天视图(快捷键 ⌃⌘I 或点击活动栏 Copilot 图标)
  2. 观察 Copilot 自动执行以下操作:
    • 更新 index.html 添加任务管理器界面
    • 创建 CSS 文件实现现代响应式样式
    • 生成 JavaScript 文件处理交互功能
  3. 完成后点击 Keep 接受所有更改,在浏览器中打开 index.html 即可看到运行效果

输入以下指令并回车:

创建一个完整的任务管理器网页应用,支持添加、删除任务和标记完成状态。包含现代 CSS 样式,确保响应式设计。使用语义化 HTML 并保证可访问性。将标记、样式和脚本分离到各自文件。 

在聊天模式下拉菜单中选择 Agent

Screenshot showing the agent mode selection in Chat view.

Step 3: 内联聊天(Inline Chat)精确调整代码

内联聊天适用于对特定代码块进行精准修改:

  1. 打开生成的 JavaScript 文件,找到添加任务的代码块
  2. 点击 Accept 应用更改

内联聊天将专注于选中代码块进行针对性改进

Screenshot showing inline chat adding validation to selected function.

输入以下指令:

添加输入验证以防止添加空任务,并去除任务文本中的空格 

选中代码块后按 ⌘I 打开编辑器内联聊天

Screenshot showing inline chat starting for selected code block.

Step 4: 自定义 AI 体验

创建项目专属指令
  1. 在项目根目录创建 .github 文件夹,新建 copilot-instructions.md 文件

添加编码规范(示例):

# 项目通用编码指南 ## 代码风格 - 使用语义化 HTML5 元素(header, main, section 等) - 优先使用现代 JavaScript (ES6+) 特性 ## 命名规范 - 组件名、接口和类型别名使用 PascalCase - 变量、函数和方法使用 camelCase - 私有类成员以下划线 _ 为前缀 
创建自定义聊天模式
  1. 命令面板运行 Chat: New Mode File,选择保存位置为 .github/chatmodes

在聊天视图的模式下拉菜单中可选择此自定义模式

Screenshot showing the Code Reviewer custom mode in the chat mode dropdown.

命名为 “Code Reviewer”,替换内容为:

--- description: '审查代码质量和最佳实践合规性' tools: ['codebase', 'usages', 'vscodeAPI', 'problems'] --- # 代码审查模式 你是一名资深开发者,负责审查代码质量、最佳实践和项目标准合规性,不直接提供代码修改。 ## 分析重点 - 代码质量、结构和最佳实践 - 潜在 bug、安全问题和性能问题 - 可访问性和用户体验考量 

Step 5: 智能操作(Smart Actions)集成工作流

智能操作将 AI 功能无缝集成到 VS Code 界面,无需切换到聊天窗口:

  1. 打开源代码管理视图(快捷键 ⌃⇧G
  2. 初始化仓库并暂存所有更改
  3. 满意则直接提交,或再次点击图标生成替代方案

点击提交框旁的 ** sparkle 图标**,Copilot 将基于暂存更改生成符合规范的提交信息

Screenshot showing generated commit message in Source Control view.

四、高级功能与个性化配置

多模型切换与管理

  • 在聊天视图中通过模型下拉菜单选择不同 AI 模型
  • 支持连接外部模型提供商,需在设置中配置 API 密钥

工作区特定配置

  • 禁用特定语言:在设置中搜索 copilot.languageFilter 排除不需要的语言
  • 自定义快捷键:通过 文件 > 首选项 > 键盘快捷方式 配置 Copilot 相关操作的快捷键

常见问题解决

  • 网络问题:确保 VS Code 可访问 https://api.github.comhttps://copilot-proxy.githubusercontent.com
  • 性能优化:在大型项目中可通过设置 copilot.suggestionsPerRequest 减少建议数量
  • 隐私设置:通过 telemetry.telemetryLevel 设置为 off 禁用遥测数据收集

五、总结与后续学习

通过本教程,你已掌握:

  • Copilot 核心功能:代码补全、代理模式、内联聊天和智能操作
  • 项目实战:从零构建响应式任务管理应用
  • 个性化配置:自定义指令和专用聊天模式

进阶学习路径

  1. 探索 MCP(Model Context Protocol)服务器扩展 AI 能力
  2. 创建更多专用聊天模式(如调试专家、文档生成器)
  3. 学习 Copilot CLI 工具集成终端工作流
提示:使用 # 符号在聊天中引用特定文件(如 #index.html)或使用 #codebase 引用整个项目,可提供更精准的上下文建议。

Read more

揭秘 AIGC 背后的技术:GPT、BERT 与 Transformer 模型的工作原理

揭秘 AIGC 背后的技术:GPT、BERT 与 Transformer 模型的工作原理

一、引言 AIGC 的崛起与重要性 人工智能生成内容(AIGC)已经不再是未来的技术,它正以惊人的速度渗透到各行各业,重新定义了内容创作、媒体生产、甚至人类认知的边界。从深度学习到大规模自然语言处理,AIGC 的崛起代表着一种新型的智能化革命,其核心技术依赖于 Transformer 架构、GPT 和 BERT 等模型。这些技术不仅推动了自然语言处理(NLP)的进步,还在自动化写作、代码生成、艺术创作等多个领域取得了突破性进展。 AIGC 之所以成为技术热潮,背后是其颠覆性的效率提升和创新应用。比如,通过 GPT,我们可以在几秒钟内生成一篇文章,而传统写作过程可能需要几小时,甚至几天。这种技术的普及,不仅大大降低了内容创作的门槛,还为个体创作者、企业甚至国家带来了前所未有的生产力提升。 本文目的与结构概述 本文将深入探讨 AIGC 背后的核心技术——Transformer、GPT 和 BERT,带你一步步了解它们的架构原理、训练机制及实际应用。

高级java每日一道面试题-2025年7月15日-基础篇[LangChain4j]-如何集成国产大模型(如通义千问、文心一言、智谱 AI)?

高级java每日一道面试题-2025年7月15日-基础篇[LangChain4j]-如何集成国产大模型(如通义千问、文心一言、智谱 AI)?

你想了解在LangChain4j中如何集成主流的国产大模型(通义千问、文心一言、智谱AI),并希望得到面向高级面试的详细解答。这是LangChain4j落地国内场景的核心考点,既考察对框架扩展能力的理解,也考察对国产模型生态的熟悉度。 一、核心原理:国产模型集成的通用逻辑 LangChain4j对国产大模型的集成,核心遵循「统一接口 + 专属适配器」的设计: 1. 所有模型均实现LangChain4j的ChatLanguageModel/EmbeddingModel核心接口,保证调用方式一致; 2. 每个国产模型有专属的集成依赖(如langchain4j-dashscope对应通义千问); 3. 配置上需适配国产模型的专属参数(如阿里云AccessKey、百度API Key/Secret Key)。 二、完整集成实现(通义千问 + 文心一言 + 智谱AI) 以下是可直接运行的生产级代码,覆盖三大主流国产模型的集成,包含基础调用、参数配置、异常处理等核心要点。 1. 前置依赖(Maven) 首先引入各模型的专属集成依赖(按需选择): <dependencies><!

Copilot配置最佳实践(从入门到精通的9个关键步骤)

第一章:Copilot配置入门与核心概念 GitHub Copilot 是一款基于人工智能的代码辅助工具,旨在帮助开发者在编写代码时提供智能补全、函数建议和整体逻辑推导。它通过学习海量开源代码库,理解上下文语义,从而在用户输入注释或部分代码时,自动生成高效且符合规范的代码片段。 安装与初始化配置 要开始使用 GitHub Copilot,首先需完成以下步骤: 1. 安装支持插件的编辑器,如 Visual Studio Code 或 JetBrains 系列 IDE 2. 在扩展市场中搜索并安装 "GitHub Copilot" 插件 3. 登录 GitHub 账户并授权 Copilot 权限 4. 重启编辑器以激活服务 完成安装后,Copilot 将自动监听代码输入行为。例如,在 JavaScript 中输入如下注释: // 创建一个函数,返回两个数的和

Llama-3.2-3B开箱体验:Ollama部署+多语言对话实测

Llama-3.2-3B开箱体验:Ollama部署+多语言对话实测 1. 快速了解Llama-3.2-3B Llama-3.2-3B是Meta最新推出的轻量级多语言大模型,专门针对对话场景进行了优化。这个3B参数的模型在保持较小体积的同时,提供了相当不错的文本生成能力,特别适合本地部署和快速响应场景。 与之前版本相比,Llama-3.2-3B有几个明显优势: * 多语言支持更好:在中文、英文、法文、德文等多种语言上都有不错的表现 * 对话优化:专门针对聊天场景进行了指令微调,回答更加自然 * 部署简单:通过Ollama可以一键部署,无需复杂配置 * 资源友好:3B参数规模在消费级硬件上也能流畅运行 2. 环境准备与快速部署 2.1 准备工作 部署Llama-3.2-3B前,确保你的设备满足以下要求: * 内存:至少8GB RAM(推荐16GB) * 存储:需要约2GB空间存放模型文件 * 系统:支持Windows、macOS、Linux主流系统 2.2 一键部署步骤