免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

最近一直在玩OpenClaw,无奈OpenClaw是个消耗token的高手!随随便便问了几个问题就能吃掉百万的token数,妥妥的吞金兽,如果有免费的token就好了!

今天就给大家介绍英伟达和Github的免费大模型API Key的获取方法。

传送门:

英伟达-Nvidia的免费API Key

说到英伟达,大家的第一反应可能是"卖显卡的大佬"。但很少有人意识到,拥有强大算力的英伟达,也在积极布局AI云服务市场。这波免费开放API的策略,本质上是一个聪明的生态布局——通过免费服务吸引开发者,为未来的商业变现铺路。

img

 

注册账号

1.打开英伟达官网

https://build.nvidia.com

点击“Login”

img

 

2.输入邮箱

输入邮箱、密码

img

 

3.验证邮箱

到邮箱接受到6位数验证码

img

 

邮箱内容:

img

 

4.创建英伟达云账号

这里随便填写,我填写star-ai-home

再点击“Create nvidia cloud account”

img

 

5.验证手机号

如图点击“Verify”

img

 

在右侧输入手机号码的地方,把+1手动改成+86,然后在+86后面输入你的手机号码,点击“Send Code via SMS”获取短信验证码,如图:

你的手机就能收到一条【优速通】开头的英文验证短信,里面的数字就是验证码,将数字在网页上输入,继续点“Verify”按钮验证成功。

img

 

6.创建API Keys

点击“API Keys”进入管理页面

img

 

点击“Generate API Key”创建API密钥

img

 

输入Key Name

过期默认选择,按照需求选择,可以选择12个月,也可以选择永不过期

最后“Generate Key”确定创建

img

 

复制出API key备用

检测API Key

如果没有Cherry Studio可以自行安装,或者使用其他软件也行。

星哥这里使用 Cherry Studio 测试一下

1.添加英伟达API Key

打开Cherry Studio

点击设置

模型服务,搜索“英伟达”,填写密钥

img

 

2.验证API Key

如图,打开英伟达的接口,再点击检测

选择llama-3.1检测,yi-large检测失败

img

 

3.选择模型

点击“管理”

搜索模型,我这里先oss、glm、minimax的关键字

再添加对应的模型

img

 

img

 

img

 

4.测试问题

回到助手

选择英伟达大模型

img

 

问它一个问题,看是否能回答。

img

 

测试无误,这就是Nvidia的免费API Key的方法。

下面

Github获取免费API Key

首先登录github

如果没有账号则注册

1.申请api key

用浏览器访问:https://github.com/settings/personal-access-tokens

点击:Generate new token

img

 

2.填写信息

填写token name

填写描述,

选择过期时间,我这里选择永不过期

Repository access 选择第一项

img

 

3.添加权限

点击 add permissions

搜索modes

img

 

选择modes

img

 

复制出api key

img

 

4.测试

接下来,浏览器访问 https://github.com/marketplace/models

img

 

再左上角选择API大模型,如 OpenAI、deepseek、DeepSeek 等。

img

 

gpt5不能用

 

免费的key,会有限制:https://docs.github.com/en/github-models/use-github-models/prototyping-with-ai-models#rate-limits

Playground 和免费 API 的使用受到速率限制,包括每分钟请求数、每日请求数、每次请求的令牌数以及并发请求数。如果您遇到速率限制,则需要等待速率限制重置后才能继续发出请求。

5.使用Cherry Studio配置

点击设置

模型服务,搜索“github”,填写密钥

img

 

测试成功

img

 

结束

英伟达和GitHub的这两条免费通道,给了我们一个低成本体验顶级AI能力的机会。无论是用于个人学习、项目验证,还是作为产品的初期解决方案,都是极具价值的选择。

Read more

Flutter 三方库 langchain_google 的鸿蒙化适配指南 - 链接 Gemini 智慧中枢、LangChain AI 实战、鸿蒙级智能应用专家

Flutter 三方库 langchain_google 的鸿蒙化适配指南 - 链接 Gemini 智慧中枢、LangChain AI 实战、鸿蒙级智能应用专家

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 langchain_google 的鸿蒙化适配指南 - 链接 Gemini 智慧中枢、LangChain AI 实战、鸿蒙级智能应用专家 在鸿蒙跨平台应用迈向“智能化”的今天,接入生成式 AI(AIGC)已不再是加分项,而是必选项。如果你想在鸿蒙端利用 Google Gemini 的强大推理能力打造智能助手、自动化翻译或垂直领域 RAG 系统。今天我们要深度解析的 langchain_google——一个通过 LangChain 标准协议封装的 Google AI 适配器,正是帮你构建“大模型大脑”的核心插件。 前言 langchain_google 是 LangChain.

By Ne0inhk
未来的鸿蒙 App,还需要“首页”吗?

未来的鸿蒙 App,还需要“首页”吗?

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名) 大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。 我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案, 在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。 技术方向:前端 / 跨端 / 小程序 / 移动端工程化 内容平台:掘金、知乎、ZEEKLOG、简书 创作特点:实战导向、源码拆解、少空谈多落地 文章状态:长期稳定更新,大量原创输出 我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、

By Ne0inhk
macOS 平台 AI CLI 工具安装与配置避坑指南(OpenClaw、Gemini CLI、Claude Code)

macOS 平台 AI CLI 工具安装与配置避坑指南(OpenClaw、Gemini CLI、Claude Code)

前提条件:macOS(M系列芯片) 测试时间:2026年2月 本文涵盖 OpenClaw、Gemini CLI、Claude Code 三款主流 AI CLI 工具的安装、配置与调试。 第一章:OpenClaw 安装与配置 OpenClaw 依赖树庞大(709个包,2026.2x版本),安装过程涉及网络下载、本地服务启动、LaunchAgent 注册等多个环节,任何一环的网络异常都会导致安装失败或运行时报错。 1.1 npm install 网络卡死 问题描述:执行 npm install -g openclaw 后,终端长时间无输出,看起来像卡死。 问题思路:npm 安装依赖包时需要从 npm 官方仓库下载大量文件,下载速度极慢甚至超时,容易误判为程序卡死。

By Ne0inhk