2026年1月16日- 白嫖Claude Opus 4.5!Kiro + AIClient-2-API 让你免费用上顶级AI

2026年1月16日- 白嫖Claude Opus 4.5!Kiro + AIClient-2-API 让你免费用上顶级AI

前言

在AI辅助开发工具快速发展的今天,各大厂商纷纷推出自己的AI编程助手。好家伙,继GitHub Copilot、Cursor、Claude Code之后,AWS也按捺不住了,在2025年7月正式推出了自家的AI IDE——Kiro。这款工具不仅支持Claude Sonnet 4、Claude Opus 4.5等顶级大模型,而且新用户注册就送550积分,相当于白嫖数百次高质量AI对话,这对于想要体验顶级AI编程能力的小伙伴来说简直是福音。

image-20260117085255923

但问题来了,Kiro目前只能在其IDE内部使用,如果我们想在其他工具比如Cherry Studio、Claude Code中使用这些免费额度怎么办?这就需要借助一个神器——AIClient-2-API。这个开源项目可以将Kiro等AI客户端的能力转换为标准的OpenAI API格式,让我们能够在任何支持OpenAI API的第三方工具中使用Kiro的免费额度,实现真正的"白嫖"顶级大模型。

最近两天我解锁了 Kiro 搭配 AIClient-2-API 的 “邪修玩法”,今天就手把手带大家实操:从注册 Kiro 账号、部署 AIClient-2-API,到在 Cherry Studio 和 Claude Code 中调用免费 Claude 模型,全程干货无门槛!话不多说,直接上车体验白嫖顶级 AI 的快乐!

1.什么是Kiro

✨ Kiro简介

Kiro 是AWS(亚马逊云服务)在2025年7月推出的一款AI驱动的智能IDE(集成开发环境)。它基于VS Code开源版本(Code OSS)打造,专注于"规格驱动开发"(Spec-Driven Development)的理念,旨在将AI编程助手从简单的代码补全提升到真正的智能代理(Agentic AI)级别。

Kiro的核心理念是通过规格文档(Specs)来驱动整个开发流程,包括需求文档(requirements.md)、设计文档(design.md)和任务清单(tasks.md),让AI能够更好地理解项目上下文,提供更精准的代码生成和建议。

🚀 核心特性

  • 🤖 多模型支持: 支持Claude Sonnet 4、Claude Sonnet 4.5、Claude Opus 4.5、Claude Haiku 4.5等顶级大模型
  • 📋 规格驱动开发: 通过Specs文档定义需求和设计,AI能更好理解项目上下文
  • 🔄 自主代理模式: 支持Autonomous Agent,可持续数天自主完成复杂开发任务
  • ☁️ 深度AWS集成: 与Lambda、EC2、S3、DynamoDB等AWS服务深度集成
  • 🌐 多语言支持: 支持Python、Java、JavaScript、TypeScript、Go、Rust等20+编程语言
  • 💡 Kiro Powers: 动态加载上下文和MCP服务器,提供专业领域的开发支持

💰 免费额度

Kiro对个人开发者非常友好,提供以下免费福利:

福利类型额度有效期
新用户奖励积分500积分30天内使用
每月免费额度50积分每月重置

不同模型的积分消耗倍率:

模型积分倍率说明
Auto(自动选择)1x性价比最高
Claude Haiku 4.50.4x最省积分
Claude Sonnet 4/4.51.3x主流选择
Claude Opus 4.52.2x最强模型(实验性)

🎯 为什么选择Kiro

对于想要白嫖顶级AI模型的小伙伴来说,Kiro的优势非常明显:

  1. 免费额度充足: 新用户550积分足够使用很长时间
  2. 模型质量高: 支持Claude最新最强的模型
  3. 注册简单: 只需AWS Builder ID即可,无需绑定信用卡
  4. 可转API使用: 配合AIClient-2-API可以在任何第三方工具中使用

2.部署实战

kiro注册

我们登录https://kiro.dev/

image-20260116222008274

任一种签名注册方式。这里我们选择第三方builderID

image-20260116222220407

完成亚马逊账号认证信息

image-20260116222456878

从上面截图我们可以看到我们获得550个积分使用。

AIClient-2-API 部署

接下来我们需要在github上找到一个叫做AIClient-2-API 这个项目。

image-20260116222830628

这个项目目前支持Gemini CLIAntigravityQwen CodeKiroopenaiclaudeiflow 主流的几个都支持了。目前我们需要用到Kiro,刚好用这个项目。接下来我们使用docker运行环境部署这个程序。

我们找一台海外服务器。这里我们使用腾讯云的海外服务器。使用下面的命令部署

docker run -d \ -p 3003:3000 \ -p 8085-8087:8085-8087 \ -p 19876-19880:19876-19880 \ --restart=always \ -v "/home/app/AIClient-2-API/configs:/app/configs" \ --name aiclient2api \ justlikemaki/aiclient-2-api 
image-20260116224559390
image-20260116224633653

看到上面容器进程说明我们启动完成。

AIClient-2-API配置

我们打开浏览器输入下面地址http://43.163.230.83:3003/,注意这里我们需要腾讯云服务把3003端口防火墙设置公网访问。

image-20260116225204476

我们输入密码(默认的密码是admin123),大家根据自己需要修改。进入后台管理页面-我们选择“提供商池管理”,选择claude-kiro-oauth,点击右侧“生成授权”

image-20260116225829151

在弹出对话框中,我们选择“‘aws Builder ID’”完成认证授权

image-20260116230020448

弹出 “OAuth 授权”

image-20260116230101741
image-20260116230137400

点击确认并继续完成授权

image-20260116230210485
image-20260116230220572
image-20260116230319286

通过上述方式我们就完成了1个账号的授权,当然如果你有多个重复上面的步骤完成授权。

接下来我们在配置管理中,选择“Claude Kiro OAuth”,另外我们在设置一下对外提供的api key

image-20260116230552011

设置完成后点击保存按钮,完成设置。

3.第三方平台使用

接下来我们就可以在第三方平台上使用者这个免费的反带API 了

cherry stuido

我们使用cherry stuido 这个第三方工具来测试验证一下反带的效果。

我们先在cherry stuido配置一下

image-20260116230951403

填写api秘钥 api地址 我们填写本地地址http://43.163.230.83:3003

image-20260116231125541

​ 以上我们就完成了模型基本设置。

​ 接下来我们在聊天对话中验证测试

​ 选择claude-opus-4-5-20251101

image-20260116231219649

claude code 使用

接下来我们使用本地claude code 来实现。这里配置我们使用cc-switch配置。关于cc-switch配置 配置不熟悉的可以看我之前的文章

CC-Switch配置切换神器:5秒搞定多设备同步,坚果云让配置永不丢失

image-20260116231454011
image-20260116231531133

cc-switch完成后,我们启动本地claud code

image-20260103153551699

我们验证测试一下

image-20260103153638147

OK 默认使用了claude-sonnet-4-5 模型来运行的。

用量使用我们可以在管理平台查看到模型使用量

image-20260116232123769

4.总结

今天主要带大家了解并实现了通过AIClient-2-API反向代理Kiro免费额度的完整流程,该方案以"Kiro免费积分 + AIClient-2-API反代转换"为核心优势,结合开发者日常使用AI编程助手的需求,通过Docker容器化部署与OAuth授权认证,形成了一套从Kiro账号注册到第三方工具调用的全链路白嫖方案。通过这套实践方案,开发者能够高效突破官方客户端限制——借助AIClient-2-API的反向代理能力(包括OAuth授权绑定、API Key配置、模型映射),无需付费订阅,就能快速在Cherry Studio、Claude Code等主流工具中使用Claude Sonnet 4、Claude Opus 4.5等顶级大模型(如本次演示的"claude-opus-4-5-20251101")。

无论是日常代码编写、技术问答,还是复杂项目开发、代码审查,都能通过标准OpenAI API格式完成调用,极大降低了使用顶级AI模型的门槛和成本。在实际应用中,AIClient-2-API不仅支持Kiro,还支持Gemini CLI、Antigravity、Qwen Code等多种AI客户端,适配性远优于单一平台方案;特别是通过Docker一键部署和Web管理后台,有效解决了传统反代配置繁琐的难题。同时,方案具备良好的扩展性——小伙伴们可以基于此扩展更多应用场景,如多账号池管理实现负载均衡、配合cc-switch实现多配置快速切换、搭建团队共享的AI API网关等,进一步发挥免费AI额度在个人开发、团队协作、学习研究等领域的应用价值。

感兴趣的小伙伴可以按照文中提供的步骤进行实践,根据实际使用需求调整模型选择和账号数量。今天的分享就到这里结束了,我们下一篇文章见。

Read more

养龙虾-------【多openclaw 对接飞书多应用】---多个大龙虾机器人群聊

🚀 MiniMax Token Plan 惊喜上线!新增语音、音乐、视频和图片生成权益。邀请好友享双重好礼,助力开发体验! 好友立享 9折 专属优惠 + Builder 权益,你赢返利 + 社区特权! 👉 立即参与:https://platform.minimaxi.com/subscribe/token-plan?code=2NMAwoNLlZ&source=link 最近玩了下大龙虾,对接飞书后玩的不亦乐乎,妥妥滴私人助理。但是也萌发一个想法,多个机器人可以自己聊天吗?那会不会把世界给聊翻了。于是我马上搜寻各个配置方式,却是找到了可以配置多个机器人得群聊方式。 1.首先创建多个应用添加机器人,分别和部署得多个openclaw系统对接具体对接参考我写的【 养龙虾-------【openclaw 对接飞书、钉钉、微信 】—移动AI助理】 2.手工拉群并添加机器人: 3.把群id配置进各个龙虾配置文件里面 接下来就可以群聊了

PythonWeb基础-FastAPI使用

PythonWeb基础-FastAPI使用

FastAPI是一个基于Python的高性能Web框架,用于快速构建API接口服务。FastAPI带有原生的异步支持,具备极高的性能。 1.框架基础使用 1.1 创建FastAPI项目 创建虚拟环境是为了隔离项目运行环境,避免依赖冲突,保持全局环境的干净与稳定。 项目运行: 方式一:run项目 方式二:运行指令:uvicorn 模块名:app(应用实例名) --reload  ( --reload:更改代码后自动重启服务器) 访问交互式文档: http://127.0.0.1:8000/docs 1.2 路由 路由就是URL地址与处理函数之间的映射关系,它决定了用户访问某个特定网址时,服务器应执行哪个后端接口来返回响应结果。 FastAPI的路由定义基于Python的装饰器模式: 实例: from fastapi import FastAPI # 创建 FastAPI 实例 app = FastAPI() @app.

【WebAPI 模拟器】.NET 8/9 + Minimal API + Swagger + DI + WPF Host

【WebAPI 模拟器】.NET 8/9 + Minimal API + Swagger + DI + WPF Host

WPF 配置 WebAPI 接口 → 动态生成 API → 自动生成 Swagger → 通过依赖注入动态处理请求 → 作为 WebAPI 模拟器使用 方案基于 .NET 8/9 + Minimal API + Swagger + DI + WPF Host,这是目前最稳定、最灵活、最适合“接口模拟器 / 动态 API”的技术组合。 一、总体架构设计(推荐) ┌──────────────────────────┐ │ WPF UI │ │ - 接口配置(路径/方法) │ │ - 请求参数定义 │ │ - 响应模板(JSON) │ │ - 启停 / 热更新 │ └───────────┬──────────────┘ │ ▼ ┌──────────────────────────┐ │ ApiDefinitionStore │◄── 内存 / SQLite / JSON

# 【Rust系统编程与WebAssembly】生态工具指南:从工程化到前端集成

# 【Rust系统编程与WebAssembly】生态工具指南:从工程化到前端集成

文章目录 * 1. 核心基础:Cargo 工作区配置(多项目工程化管理) * 1.1 工作区核心概念与适用场景 * 1.2 工作区创建与目录结构 * 步骤 1:创建工作区目录与配置文件 * 步骤 2:创建子包 * 步骤 3:最终目录结构 * 1.3 依赖共享与版本管理 * 1. 引用工作区共享依赖 * 2. 子包间依赖传递 * 1.4 多目标编译配置 * 1.5 工作区常用指令 * 2. 性能优化:Rust 程序性能剖析(perf 实战) * 2.1 perf 工具简介与环境准备 * 1. perf 工具功能 * 2. 环境安装(Linux