免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

最近一直在玩OpenClaw,无奈OpenClaw是个消耗token的高手!随随便便问了几个问题就能吃掉百万的token数,妥妥的吞金兽,如果有免费的token就好了!

今天就给大家介绍英伟达和Github的免费大模型API Key的获取方法。

传送门:

英伟达-Nvidia的免费API Key

说到英伟达,大家的第一反应可能是"卖显卡的大佬"。但很少有人意识到,拥有强大算力的英伟达,也在积极布局AI云服务市场。这波免费开放API的策略,本质上是一个聪明的生态布局——通过免费服务吸引开发者,为未来的商业变现铺路。

img

 

注册账号

1.打开英伟达官网

https://build.nvidia.com

点击“Login”

img

 

2.输入邮箱

输入邮箱、密码

img

 

3.验证邮箱

到邮箱接受到6位数验证码

img

 

邮箱内容:

img

 

4.创建英伟达云账号

这里随便填写,我填写star-ai-home

再点击“Create nvidia cloud account”

img

 

5.验证手机号

如图点击“Verify”

img

 

在右侧输入手机号码的地方,把+1手动改成+86,然后在+86后面输入你的手机号码,点击“Send Code via SMS”获取短信验证码,如图:

你的手机就能收到一条【优速通】开头的英文验证短信,里面的数字就是验证码,将数字在网页上输入,继续点“Verify”按钮验证成功。

img

 

6.创建API Keys

点击“API Keys”进入管理页面

img

 

点击“Generate API Key”创建API密钥

img

 

输入Key Name

过期默认选择,按照需求选择,可以选择12个月,也可以选择永不过期

最后“Generate Key”确定创建

img

 

复制出API key备用

检测API Key

如果没有Cherry Studio可以自行安装,或者使用其他软件也行。

星哥这里使用 Cherry Studio 测试一下

1.添加英伟达API Key

打开Cherry Studio

点击设置

模型服务,搜索“英伟达”,填写密钥

img

 

2.验证API Key

如图,打开英伟达的接口,再点击检测

选择llama-3.1检测,yi-large检测失败

img

 

3.选择模型

点击“管理”

搜索模型,我这里先oss、glm、minimax的关键字

再添加对应的模型

img

 

img

 

img

 

4.测试问题

回到助手

选择英伟达大模型

img

 

问它一个问题,看是否能回答。

img

 

测试无误,这就是Nvidia的免费API Key的方法。

下面

Github获取免费API Key

首先登录github

如果没有账号则注册

1.申请api key

用浏览器访问:https://github.com/settings/personal-access-tokens

点击:Generate new token

img

 

2.填写信息

填写token name

填写描述,

选择过期时间,我这里选择永不过期

Repository access 选择第一项

img

 

3.添加权限

点击 add permissions

搜索modes

img

 

选择modes

img

 

复制出api key

img

 

4.测试

接下来,浏览器访问 https://github.com/marketplace/models

img

 

再左上角选择API大模型,如 OpenAI、deepseek、DeepSeek 等。

img

 

gpt5不能用

 

免费的key,会有限制:https://docs.github.com/en/github-models/use-github-models/prototyping-with-ai-models#rate-limits

Playground 和免费 API 的使用受到速率限制,包括每分钟请求数、每日请求数、每次请求的令牌数以及并发请求数。如果您遇到速率限制,则需要等待速率限制重置后才能继续发出请求。

5.使用Cherry Studio配置

点击设置

模型服务,搜索“github”,填写密钥

img

 

测试成功

img

 

结束

英伟达和GitHub的这两条免费通道,给了我们一个低成本体验顶级AI能力的机会。无论是用于个人学习、项目验证,还是作为产品的初期解决方案,都是极具价值的选择。

Read more

在 OpenClaw 中安装 baidu-web-search skill(百度网页搜索技能)

在 OpenClaw 中安装 baidu-web-search skill(百度网页搜索技能),最推荐用 ClawHub CLI 一键安装,再配置百度千帆 API Key 即可使用。 一、前置准备 1. 安装 Node.js(v20+)与 npm/pnpm 验证安装 clawhub --version 全局安装 ClawHub CLI(OpenClaw 官方技能管理器) npminstall-g clawhub # 或国内加速pnpmadd-g clawhub 二、一键安装百度搜索技能 # 安装 baidu-search(百度网页搜索) clawhub install baidu-search --no-input * 安装路径:~/.openclaw/workspace/skills/baidu-search/

Qt 前后端通信(QWebChannel Js / C++ 互操作):原理、示例、步骤解说

Qt 前后端通信(QWebChannel Js / C++ 互操作):原理、示例、步骤解说

Qt 提供的 QWebEngineView 是一个基于 Chromium 内核的浏览器组件,通过它,开发者可以使用 HTML、CSS、JavaScript 等技术开发 Web 页面并呈现在 Qt 桌面应用中,但与开发纯 Web 页面不同的是,这些页面通常需要和 应用中的其他组件交互,例如获取后端数据进行渲染、将前端用户指令传达给后端执行等,这将不可避免地涉及到前端 Js 和 后端 C++ 之间的交互问题,而 Qt 为此给出的解决方案就是 QWebChannel,通过 QWebChannel 前端 Web 页面和与后端 C++ 程序实现自然而顺畅的交互,甚至前后端的操作风格都极为一致。本文我们将细致地介绍QWebChannel 前后端交互的原理,通过四个详实的示例程序讲解每一步重要的操作步骤,通过本文,你将对 QWebChannel 有一个全面而深入的了解。 1. 工作原理

【DGX Spark 实战】部署 vLLM + Open WebUI 运行 Qwen3-Coder-Next-FP8(CUDA 13.0 兼容版)-修订

【DGX Spark 实战】部署 vLLM + Open WebUI 运行 Qwen3-Coder-Next-FP8(CUDA 13.0 兼容版)-修订

感谢Qwen3-Coder-Next-FP8为本文进行润色,调整,绘制架构图。但是所有的文字及链接经过手工修订。需要SGLang推理框架,移步 【DGX Spark 实战】部署SGLang,千问3.5-27B模型初探 我们已严格按您提供的原始内容(包括 CUDA_VERSION=130、CPU_ARCH=aarch64、路径 ~/vllm、用户 admin 等)进行全量修正与标准化,确保所有命令与 DGX Spark 实际环境一致。 摘要本文详细记录在 NVIDIA DGX Spark(Grace Blackwell 架构)上部署 vLLM 推理服务并接入 Open WebUI 的完整流程,包含 FlashAttention 编译、vLLM wheel 安装、Qwen3-Coder-Next-FP8

AI 生成的 UI 太丑?3 步让你的前端秒变高级感

AI 生成的 UI 太丑?3 步让你的前端秒变高级感

🚀 AI 生成的 UI 太丑?3 步让你的前端秒变高级感 你是不是也遇到过这种情况:满心期待地用 AI 生成一个前端页面,结果得到的是一个土到掉渣的蓝紫色界面,丑到自己都看不下去?🤦‍♂️ 别担心,你不是一个人!这是目前 90% 开发者使用 AI 写前端时都会遇到的痛点。 好消息是,经过一番研究和实践,我们发现了一些有效的方法!通过几个简单的技巧,不需要手写任何 CSS,就能让 AI 帮你生成媲美专业设计师的 UI 界面。 今天就手把手教你 3 步搞定,让 AI 彻底告别 “AI 味”! 🧪 实验准备 工具准备 想要跟着实验,你需要准备: 1. Claude Code (2.0.55) 底层模型是 Minimax-M2