白嫖专业版!Github Copilot Pro竟然可以免费使用

alt

今天有个好消息要和大家分享:

GitHub Copilot 已在 Visual Studio Code 上免费开放!

无论是谁,都能畅享 AI 助力下的高效开发新体验!

alt
如何免费在vscode中使用copilot
  • 下载最新版本的 VS Code https://code.visualstudio.com/Download
    如果下载慢,可以通过下面的网盘链接获取:
    https://pan.quark.cn/s/3fb6dcedfed8
  • 打开vscode编译器,按照下面步骤操作
alt

这时候就可以看到账户已经启用Copilot Free

alt


copilot Free 和copilot Pro主要功能对比
功能FreePro
消息和互动每月最多 50 个无限
实时代码建议每月最多 2,000无限
上下文感知编码支持和解释支持支持
VS Code 中的多文件编辑支持支持
切换模型支持支持
GitHub 中的代码审查不支持支持
拉取请求中的 Copilot Workspace不支持支持
VS Code 中的 Java 升级助手不支持支持
那我们如何白嫖copilot Pro呢
alt

通过上图可以看到,copilot Pro正常是需要每个月$10美元付费使用的,但是官方也说明了经过验证的学生、教师和热门开源项目的维护者可免费使用。

那怎么成为热门开源项目的维护者呢?
作为一名开发者,我第一时间想到了一个值得推荐的开源项目:python-office。它是一个专注于办公自动化的 Python 工具库,它的作者凭借对社区的持续贡献和项目的高热度,完全有资格享受 GitHub Copilot Pro的免费权益。而这个项目也正是开源精神的绝佳体现:以代码的力量帮助更多人提升效率。

项目地址:https://github.com/CoderWanFeng/python-office

项目简介: python-office 是一个强大的开源 Python 工具库,旨在帮助开发者轻松实现日常办公中的各种自动化操作。
通过简单的代码调用,你可以高效完成从文件处理到数据分析的多种任务。

项目特点:

  • 社区支持:开源项目,开发者可自由贡献代码或提需求。
  • 开箱即用:功能全面且简单易用,无需复杂配置。
  • 持续更新:项目维护者定期更新,添加更多实用功能。

主要功能:

  • 文档处理:支持 Word、Excel、PDF 等多种格式的文件操作,例如内容提取、格式转换、自动生成等。
  • 图像处理:包括水印添加、尺寸调整、格式转换等功能。
  • 网络工具:如二维码生成、网页内容抓取等。
  • 自动化脚本:轻松实现重复性任务的自动化,如批量重命名文件、批量发送邮件等。
  • 多场景适用:无论是个人办公、团队协作,还是企业级自动化需求,都能找到对应的工具。
最后

如果你也希望参与 python-office 的开发,可以通过贡献代码、提交需求或优化文档,成为这个项目的开发者之一!

这不仅是一次参与热门开源项目的宝贵机会,更有机会免费使用 GitHub Copilot Pro,让 AI 助力你的开发之旅。

感兴趣的朋友,可以加我v:baiguo_forever,拉你进交流群。

本文由 mdnice 多平台发布

Read more

Windows环境本地大模型工具链安装教程:Ollama + llama.cpp + LLaMA Factory

Windows 11 本地大模型工具链终极教程:Ollama + llama.cpp + LLaMA Factory 本教程将指导你在 Windows 11 系统上,将 Ollama、llama.cpp 和 LLaMA Factory 三个工具统一安装到 E 盘,并实现 GPU 加速、数据集配置和一键启动。所有步骤均已实际验证,适用于 RTX 5080 等现代显卡。 📁 1. 统一文件夹结构(推荐) 在 E 盘 创建父文件夹 LLM,用于集中管理所有相关文件。子文件夹规划如下: text E:\LLM\ ├── Ollama\ # Ollama 程序安装目录 ├── OllamaModels\ # Ollama 下载的模型存放目录

LLaMA-Factory环境配置与WebUI启动全攻略:从CUDA适配到依赖踩坑

最近在本地部署LLaMA-Factory时,踩了一连串环境配置的坑——从GitHub克隆失败、CUDA不可用到虚拟环境依赖缺失,最终成功启动WebUI。这篇文章就把完整的排错过程和解决方案整理出来,希望能帮到遇到类似问题的同学。 一、问题背景:本地部署LLaMA-Factory的核心诉求 目标是在Windows 10环境下,基于Anaconda创建虚拟环境,部署LLaMA-Factory并启动WebUI,利用本地NVIDIA MX230显卡(2GB显存)实现GPU加速。但从克隆仓库开始,就遇到了一系列报错,主要涉及三类问题: * 仓库克隆失败(GitHub连接重置、Gitee 403权限拒绝); * PyTorch CUDA支持缺失(报“Torch not compiled with CUDA enabled”); * 虚拟环境依赖缺失(直接运行WebUI报“ModuleNotFoundError: No module named 'torch'”)。 二、核心报错解析与分步解决方案 坑1:仓库克隆失败——网络限制与镜像选择 报错现象 从GitHub克隆时提示连

解决VsCode远程服务器上Copilot无法使用Claude的问题

最近在用vscode中的GitHub copilot,发现无法使用claude系列的模型 很多小伙伴知道要开代理,开往带你以后claude确实会出来,本地使用没有任何问题,但是如果使用远程服务器ssh,claude系列的模型就消失了,参考这篇博客https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104 按照博主的方法,需要加一个改动,在设置远程服务器(注意不是“用户”)的setting.json时需要加入"http.useLocalProxyConfiguration": true, 完成后再重启vscode,claude就有了: