【GitHub】github学生认证,在vscode中使用copilot的教程

【GitHub】github学生认证,在vscode中使用copilot的教程

github学生认证并使用copilot教程


请添加图片描述

🌈你好呀!我是 是Yu欸🌌 2024每日百字篆刻时光,感谢你的陪伴与支持 ~🚀 欢迎一起踏上探险之旅,挖掘无限可能,共同成长!


写在最前面

去年,我被安利后开始使用 GitHub Copilot,这是由 OpenAI 开发的一款革命性的代码自动补全工具。GitHub Copilot 不仅仅是一个简单的代码助手;它基于强大的 GPT-3 模型,能够理解编程语言的复杂性和上下文,从而提供高质量的代码补全建议。

在这里插入图片描述

Copilot 的设计目标是提高程序员的编码效率和准确性,使用 Copilot 极其方便。

  1. 它通过分析程序员输入的代码和上下文,智能地生成符合逻辑和语法的代码片段。
  2. 程序员在编码时只需输入关键字或简短的代码提示,Copilot 就能迅速提供一系列合适的代码片段供选择。
  3. 此外,它支持广泛的编程语言和开发框架,包括但不限于 Python、JavaScript、Java、C++ 和 React。这意味着无论你在使用哪种技术栈,Copilot 都能提供相应的支持。
  4. 更为重要的是,Copilot 不仅提供代码补全,还能根据用户的编码习惯和历史输入智能地调整其建议,使得这些建议更加个性化和精准。
  5. 此外,它还能帮助程序员更深入地理解代码的结构和语法,提供有关新编程语言和框架的学习支持。

通过 Copilot,程序员能够快速掌握新技术,有效提升其开发能力和工作效率。

参考:https://blog.ZEEKLOG.net/cbetula/article/details/130276152

一.注册github账号

1.1、注册

  1. 用如QQ邮箱的第三方邮箱注册github
    再添加.edu结尾的教育邮箱(Email settings (github.com))
  2. 用以.edu结尾的教育邮箱注册github

1.2、完善你的profile

点击你的头像,有一个“Your profile”进入即可

在左侧填写相应的数据

以下格式填写profile

Name: 中文名(English Name)

Bio: (学校名)SchoolName/major in +你的专业(用英文)

pronouns: 随便选

company:填学校的英文名

地点:你现在的地点

时间:打勾即可

链接:填你学校的官方地址

social accounts : 可选

二、Github 学生认证

填好并save后,进入
https://education.github.com/discount_requests/application

进入后一定不要打开代理,这里的认证过程无需代理即可正常上网。
并且如果挂着代理进入,可能会出现学校位置与你当前位置不符,

若出现以上情况,可进入Payment Information (github.com),完善以下信息,重新认证即可。

邮箱
填写教育邮箱,即带有.edu后缀的邮箱。

学校名称
填写学校英文名。

在这里插入图片描述

然后同意访问位置。

Upload Proof

此步骤建议使用手机摄像头现场拍摄。证件推荐使用学生卡或者录取通知书。也可使用学信网认证,但最好通过翻译软件翻译成英文或者申请英文证书。

Proof Type

按照如下表格选择证明类型

证明材料 证明类型
学生卡 Dated School ID
录取通知书 Dated class schedule for the semester
学信网认证 Other

###如果有其他类型的证明材料也可尝试。###

学校具体信息
如实填写相应英文名称即可。

最后点击processing等待结果吧,如果失败请务必按照文章步骤一步步检查并重试。

在这里插入图片描述

成功通过审核后,将收到邮件:

在这里插入图片描述

注意事项:不完善的说明

在这里插入图片描述

无法根据您在 2024 年 4 月 24 日提交的 @lightrain-a 信息来验证您的学术隶属关系。

  • 您使用的照片中的文字无法阅读。如果使用设备摄像头,请确保图像清晰易读。对于某些语言,您可能需要在英文翻译旁边捕获原始文档。
  • 请填写您的 GitHub 帐单信息,并填写您的全名,与您的学术隶属关系文档中显示的全名完全相同。您无需添加付款方式。在重新申请之前,您可能需要注销并重新登录 GitHub。如果您只有一个法定名称,请在名字和姓氏字段中输入该名称。
  • 您选择的图像似乎不包含您的学校名称。您的完整学校名称必须出现在您的文档中,而不仅仅是学校徽标。您可以将多个文档一起包含在内。如果您的官方文件不是英文的,那么您可以在英文翻译旁边拍摄原件。
  • 您的文件似乎没有包含证明当前学术隶属关系的日期。对于使用非标准日历的国家/地区,您可能需要在带有转换日期的日历旁边捕获原始文档。您可以在图像中包含多个文档,只要它们清晰易读即可。

一旦您解决了总结问题,请再次访问我们并重新申请。

有问题吗?加入 GitHub Education 社区以获取答案。

💖 GitHub 教育团队

三、Copilot

进入GitHub Copilot · Your AI pair programmer

点击start a free trial即可,github会根据你已拥有了学生包自动认证。

在这里插入图片描述

同时注意到,新的GitHub账号会提供30天的试用。

在这里插入图片描述

可以在设置中修改隐私条款】相关服务设置

在这里插入图片描述

四、在 Visual Studio Code 中安装 GitHub Copilot 扩展

参考:https://docs.github.com/en/copilot/using-github-copilot/getting-started-with-github-copilot?tool=vscode

4.1 安装 Copilot 插件

若要使用 GitHub Copilot,必须先安装 GitHub Copilot 扩展。

打开 VsCode 编辑器,点击左侧边栏的扩展图标(方块形状),在搜索栏中输入 “Copilot”。找到 “GitHub Copilot” 与 “GitHub Copilot Chat” 插件并点击安装按钮进行安装。

在 Visual Studio Code Marketplace 中,转到 GitHub Copilot 扩展页,然后单击“安装”。
在这里插入图片描述

4.2 配置 Copilot 插件(新安装)

将出现一个弹出窗口,要求打开 Visual Studio Code。单击“打开 Visual Studio Code”。

在 Visual Studio Code 的“扩展:GitHub Copilot”选项卡中,单击“安装”。

如果以前未在 GitHub 帐户中授权 Visual Studio Code,系统将提示你在 Visual Studio Code 中登录 GitHub。

如果之前已在 GitHub 上为帐户授权 Visual Studio Code,则将自动授权 GitHub Copilot。

如果未收到授权提示,请单击“Visual Studio Code”窗口底部面板中的铃铛图标。

带有 GitHub Copilot 图标的 Visual Studio Code 任务栏的屏幕截图。铃铛图标以深橙色勾勒出轮廓。
在浏览器中,GitHub 将请求 GitHub Copilot 的必要权限。若要批准这些权限,请单击“授权 Visual Studio Code”。

若要确认身份验证,请在 Visual Studio Code 中的“Visual Studio Code”对话框中单击“打开”。

4.3 换 Copilot 插件账号

在使用GithubCopilot插件时,可能使用的并非自己常用的github账号,因此需要在VSCode中切换Github账号

解决方案:
直接注销当前登录账号切换到对应的账号即可

在这里插入图片描述

欢迎大家添加好友,持续发放粉丝福利!

Read more

ComfyUI-Manager终极低配置设备优化指南:10个技巧提升AI绘画效率

ComfyUI-Manager终极低配置设备优化指南:10个技巧提升AI绘画效率 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager ComfyUI-Manager是专为ComfyUI设计的扩展管理工具,能够高效管理自定义节点的安装、更新和配置。对于低配置设备用户来说,优化ComfyUI-Manager的设置可以显著提升AI绘画工作流的性能和稳定性。本指南将分享10个实用技巧,帮助你在资源有限的设备上获得最佳使用体验。😊 1. 理解ComfyUI-Manager的核心功能与架构 ComfyUI-Manager作为ComfyUI的扩展管理器,提供了完整的自定义节点生态系统管理功能。通过manager_core.py和manager_server.py等核心模块,它实现了节点的自动化安装、依赖管理和版本控制。对于低配置设备,合理配置这些模块的运行参数至关重要。 2. 优化配置文件的性能设置 在config.ini文件中,有几个关键设置可以显著影响低配置设备的性能:

本地部署LLaMA-Factory全指南

本地部署LLaMA-Factory全指南 在大模型技术飞速发展的今天,如何让普通人也能轻松定制属于自己的AI助手?这曾是一个遥不可及的梦想。但随着 LLaMA-Factory 这类开源项目的出现,微调一个大语言模型不再只是顶级实验室的专利。它把复杂的训练流程封装成可点击的操作,甚至不需要写一行代码,就能完成从数据准备到模型部署的全过程。 如果你有一块消费级显卡,比如 RTX 3060 或更高,那么你已经具备了动手实践的基础条件。本文将带你一步步搭建环境、加载模型、配置训练参数,并最终生成一个能理解中文指令的个性化 Qwen 模型——整个过程就像使用图形化软件一样自然流畅。 硬件与环境检查:你的设备准备好了吗? 再强大的框架也离不开硬件支撑。虽然 LLaMA-Factory 支持 CPU 推理,但真正想跑通一次像样的微调任务,GPU 是必不可少的。 打开终端,先执行这条命令: nvidia-smi 如果能看到类似下面的信息,说明你的 NVIDIA 显卡驱动和 CUDA 环境基本正常: +-----------------------------------------

Whisper-large-v3保姆级教程:语音转文字so easy

Whisper-large-v3保姆级教程:语音转文字so easy 1. 引言 1.1 语音识别的实际价值 想象一下这样的场景:你需要整理一场多语言会议的录音,或者想把外语视频的字幕提取出来,又或者需要将语音笔记转为文字。传统方法要么费时费力,要么需要专业软件。现在,有了Whisper-large-v3,这些都能轻松搞定。 这个教程要介绍的镜像,基于OpenAI Whisper Large v3模型,能自动识别99种语言,支持音频上传和实时录音,还有Web界面让你点点鼠标就能用。无论你是开发者还是普通用户,都能快速上手。 1.2 教程能带给你什么 看完这篇教程,你将学会: * 怎么快速部署这个语音识别服务 * 怎么通过Web界面使用各种功能 * 怎么用代码调用API进行二次开发 * 遇到问题怎么解决 最重要的是,整个过程非常简单,不需要深厚的技术背景,跟着步骤做就行。 2. 环境准备与快速部署 2.1 硬件和系统要求 想要顺畅运行这个服务,你的设备最好满足这些条件: 资源类型推荐配置最低要求GPUNVIDIA RTX 4090

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡