免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

最近一直在玩OpenClaw,无奈OpenClaw是个消耗token的高手!随随便便问了几个问题就能吃掉百万的token数,妥妥的吞金兽,如果有免费的token就好了!

今天就给大家介绍英伟达和Github的免费大模型API Key的获取方法。

传送门:

英伟达-Nvidia的免费API Key

说到英伟达,大家的第一反应可能是"卖显卡的大佬"。但很少有人意识到,拥有强大算力的英伟达,也在积极布局AI云服务市场。这波免费开放API的策略,本质上是一个聪明的生态布局——通过免费服务吸引开发者,为未来的商业变现铺路。

img

 

注册账号

1.打开英伟达官网

https://build.nvidia.com

点击“Login”

img

 

2.输入邮箱

输入邮箱、密码

img

 

3.验证邮箱

到邮箱接受到6位数验证码

img

 

邮箱内容:

img

 

4.创建英伟达云账号

这里随便填写,我填写star-ai-home

再点击“Create nvidia cloud account”

img

 

5.验证手机号

如图点击“Verify”

img

 

在右侧输入手机号码的地方,把+1手动改成+86,然后在+86后面输入你的手机号码,点击“Send Code via SMS”获取短信验证码,如图:

你的手机就能收到一条【优速通】开头的英文验证短信,里面的数字就是验证码,将数字在网页上输入,继续点“Verify”按钮验证成功。

img

 

6.创建API Keys

点击“API Keys”进入管理页面

img

 

点击“Generate API Key”创建API密钥

img

 

输入Key Name

过期默认选择,按照需求选择,可以选择12个月,也可以选择永不过期

最后“Generate Key”确定创建

img

 

复制出API key备用

检测API Key

如果没有Cherry Studio可以自行安装,或者使用其他软件也行。

星哥这里使用 Cherry Studio 测试一下

1.添加英伟达API Key

打开Cherry Studio

点击设置

模型服务,搜索“英伟达”,填写密钥

img

 

2.验证API Key

如图,打开英伟达的接口,再点击检测

选择llama-3.1检测,yi-large检测失败

img

 

3.选择模型

点击“管理”

搜索模型,我这里先oss、glm、minimax的关键字

再添加对应的模型

img

 

img

 

img

 

4.测试问题

回到助手

选择英伟达大模型

img

 

问它一个问题,看是否能回答。

img

 

测试无误,这就是Nvidia的免费API Key的方法。

下面

Github获取免费API Key

首先登录github

如果没有账号则注册

1.申请api key

用浏览器访问:https://github.com/settings/personal-access-tokens

点击:Generate new token

img

 

2.填写信息

填写token name

填写描述,

选择过期时间,我这里选择永不过期

Repository access 选择第一项

img

 

3.添加权限

点击 add permissions

搜索modes

img

 

选择modes

img

 

复制出api key

img

 

4.测试

接下来,浏览器访问 https://github.com/marketplace/models

img

 

再左上角选择API大模型,如 OpenAI、deepseek、DeepSeek 等。

img

 

gpt5不能用

 

免费的key,会有限制:https://docs.github.com/en/github-models/use-github-models/prototyping-with-ai-models#rate-limits

Playground 和免费 API 的使用受到速率限制,包括每分钟请求数、每日请求数、每次请求的令牌数以及并发请求数。如果您遇到速率限制,则需要等待速率限制重置后才能继续发出请求。

5.使用Cherry Studio配置

点击设置

模型服务,搜索“github”,填写密钥

img

 

测试成功

img

 

结束

英伟达和GitHub的这两条免费通道,给了我们一个低成本体验顶级AI能力的机会。无论是用于个人学习、项目验证,还是作为产品的初期解决方案,都是极具价值的选择。

Read more

【全网最全・保姆级】Stable Diffusion WebUI Windows 部署 + 全套报错终极解决方案

大家好,我是在部署 SD WebUI 过程中把几乎所有坑都踩了一遍的选手,从 Git 报错、模块缺失、依赖冲突到虚拟环境异常,全部踩完。今天把完整安装流程 + 我遇到的所有真实错误 + 一行一解全部整理出来,写成一篇能直接发 ZEEKLOG 的完整文章。 一、前言 Stable Diffusion WebUI 是目前 AI 绘画最主流的本地部署工具,但 Windows 环境下因为 Python 版本、虚拟环境、Git 仓库、依赖包、CLIP 编译 等问题,90% 的新手都会启动失败。本文包含: * 标准 Windows 一键部署流程 * 我真实遇到的 10+ 种报错 * 每一种报错的 原因 + 直接复制可用的命令 * 最终测试出图提示词(

Claude Code 的完美平替:OpenCode + GitHub Copilot(顶级模型+最优价格)

引言:Claude 虽好,但你真的能用上吗? 在当前席卷全球的“Vibe Coding”浪潮中,Anthropic 推出的 Claude 系列模型 + 终端工具 Claude Code,凭借极强的逻辑推理能力,成为了开发者眼中的“白月光”。但现实是残酷的:对于中国开发者而言,账号随时被封、海外信用卡支付遭拒、API 额度受限以及复杂的网络环境,构成了一道难以逾越的门槛。 虽然最近国产编程模型不断发力,Claude Code + GLM-4.7 的表现非常出色,但面对复杂问题,Claude系列模型依然完胜。难道我们只能眼馋Claude全家桶的编程体验吗? 作为一名追求极致生产力的开发者,我发现了一个绝佳的完美替代方案:OpenCode + GitHub Copilot。这个组合不仅能让你享受如 GLM-4.7 一样的性价比,还能更方便的使用 Claude 的顶级模型。 Claude Code 的开源平替:OpenCode

AI 编程工具选型:Copilot、Cursor、Codex 核心差异

AI 编程工具选型:Copilot、Cursor、Codex 核心差异

【如文章引起大家共鸣,请“点赞”以及“转发”,以支持继续创作,谢谢大家!】 朋友们大家好!今天咱们不聊那些虚头巴脑的,直接来点实在的——AI编程工具选型,Copilot、Cursor、Codex这仨到底咋选?别急,我这就用最接地气的方式,给你唠唠它们的“脾气秉性”,保证你听完就能上手挑! 先说Copilot,这哥们儿可是“代码补全界的扛把子”!它就像你身边的“代码小秘书”,你敲代码时,它就在旁边默默观察,你刚敲个“for”,它立马给你补上“(int i=0;i<n;i++)”,那叫一个快!而且,它还支持多IDE,VS Code、JetBrains啥的,都能无缝对接。不过呢,Copilot也有个“小毛病”,就是它更擅长“补全”,对于复杂的代码重构或者项目级理解,就有点力不从心了。

FPGA AD7606串行驱动与并行驱动

FPGA AD7606串行驱动与并行驱动

AD7606是一个八通道16分辨率的adc,有两种测量范围5v和10v,每个通道采样率最高200ksps,支持多种驱动方案,最常用的有串行方案与并行方案,其中串行方案采用spi协议进行数据传输,可以在io引脚不够用的情况下采用,而并行方案采用16个io在一个采样边沿同时接收一次采样数据。 首先介绍ad7606的内部结构 内部主要部分有四个模块,模块1是在每个通道处添加了2阶巴特沃斯模拟低通滤波器,用来抗混叠,其截止频率受电压测量范围影响,当范围为5v时截止频率15khz,10v时23khz 因此在使用ad7606测量截止频率以上的信号时,需要在前方加入仪表放大器来放大信号,否则信号会被ad7606滤除 模块2用来控制复位、测量范围、通道转换,range为0时测量范围0~5v,1时测量范围0~10v,通道转换是指八个通道可分为两组,A组包含0~3通道,B组包含4~7通道,转换的意思就是在adc内部进行模拟量向数字量的转换,转换需要消耗一定的时间,而要指定那组通道转换则受convst信号影响,convst A信号拉高会让A组转换,convst B拉高会让B组转换,一般convst