OpenClaw“小龙虾”爆火!这个项目让 12 个顶级 AI 全部变成“免费 API”|如何解决OpenClaw费Token的问题?

OpenClaw“小龙虾”爆火!这个项目让 12 个顶级 AI 全部变成“免费 API”|如何解决OpenClaw费Token的问题?

📢 免责声明

本文所述技术仅用于合法授权的安全研究、教学演示及防御机制开发。作者及发布平台不承担因读者误用、滥用本内容所导致的任何法律责任。请严格遵守《中华人民共和国网络安全法》及相关法律法规。

🦞 OpenClaw“小龙虾”爆火!这个项目把 12 个 AI 全变成免费 API

最近 AI Agent 圈最火的开源项目之一就是 OpenClaw
很多开发者给它起了一个很形象的外号:

AI Agent 界的小龙虾 🦞

为什么这么说?

因为它有三个特点:

  • • 越用越上头
  • • 生态越来越大
  • • 能自动执行各种复杂任务

OpenClaw 本身只是 Agent 框架,并不自带模型,需要连接 Claude、ChatGPT、DeepSeek 等大模型才能运行。

但问题来了:

API 太贵。

于是一个非常“疯狂”的项目火了——

openclaw-zero-token

它可以把 网页版 AI 直接变成 API,让 OpenClaw 免费调用。


📦 项目地址

GitHub:

👉 https://github.com/linuxhsj/openclaw-zero-token

这是一个开源 TypeScript 项目,可以 无需 API Key 调用主流 AI 模型,包括 Claude、ChatGPT、Gemini、DeepSeek、豆包、Grok、Kimi 等。(agentskill.work)


一、它到底是干什么的

一句话总结:

把网页 AI 变成 OpenAI API。

架构如下:

OpenClaw    │    │ OpenAI API    ▼ openclaw-zero-token    │    │ 浏览器 cookie 调用    ▼ DeepSeek / Claude / ChatGPT / Kimi / Qwen / Doubao

原理其实并不复杂:

1️⃣ 启动 Chrome 调试模式
2️⃣ 读取浏览器 Cookie
3️⃣ 调用 AI 网站接口
4️⃣ 转换为 OpenAI API 格式

这样:

网页AI = API

只要你能在浏览器里使用 AI,
理论上就可以变成 API。

该项目通过 浏览器自动化 + Web API 转发实现这一点。(OpenClaw API)


二、目前支持的 AI 平台

根据项目文档,目前已经支持:

平台

状态

DeepSeek

Qwen 国际版

Qwen 国内版

Kimi

Claude Web

Doubao

ChatGPT Web

Gemini Web

Grok Web

GLM Web

GLM 国际版

Manus API

总计:

12个平台 28+模型

最关键的一点:

不需要 API Token。

三、官方推荐部署流程(6 步)

根据项目 START_HERE.md 文档,部署流程非常简单。

第一步:安装并编译

npm install npm run build pnpm ui:build

项目是 TypeScript 编写,需要先编译。


第二步:启动 Chrome 调试模式

./start-chrome-debug.sh

作用:

开启 Chrome Remote Debug

程序需要通过 Chrome DevTools Protocol 获取登录会话。


第三步:登录 AI 网站

在 Chrome 中登录这些平台:

chat.qwen.ai qianwen.com kimi.moonshot.cn claude.ai doubao.com chatgpt.com gemini.google.com grok.com chatglm.cn chat.z.ai

⚠️ 注意:

DeepSeek 不在这一步。


第四步:运行 onboard

./onboard.sh

系统会:

  • • 自动读取 Cookie
  • • 配置平台
  • • 写入配置文件

配置保存在:

~/.openclaw/openclaw.json

第五步:配置 DeepSeek

登录:

https://chat.deepseek.com

然后在 onboard 中选择:

deepseek-web

完成认证。


第六步:启动 API 服务

./server.sh start

默认端口:

http://127.0.0.1:3001

打开:

http://127.0.0.1:3001/#token=xxxx

即可进入 Web UI。


四、接入 OpenClaw

在 OpenClaw 中配置模型:

Base URL http://127.0.0.1:3001/v1
API Key 随便填

模型示例:

deepseek-web/deepseek-chat kimi-web/moonshot claude-web/claude-3-5-sonnet doubao-web/doubao-seed

这样 OpenClaw 就能调用这些模型。


五、最终 AI Agent 架构

现在很多开发者的架构是这样的:

n8n  │  ▼ OpenClaw  │  ▼ openclaw-zero-token  │  ▼ DeepSeek / Claude / ChatGPT

效果:

  • • 自动写代码
  • • 自动执行脚本
  • • 自动分析文件
  • • 自动生成报告

六、为什么 OpenClaw被叫“小龙虾”

因为它真的很容易上瘾:

🦞 一旦跑起来
Agent 可以自动干活

🦞 插件生态疯狂增长

🦞 配合 zero-token

几乎零成本

所以很多开发者说:

OpenClaw + zero-token = 免费 AI Agent 平台

七、总结

如果你最近在玩 OpenClaw 小龙虾
那 openclaw-zero-token 基本是必装组件

因为它解决了最大的问题:

AI API 成本

最终你会拥有:

12个平台 28+模型 统一API 完全免费

🔗 项目地址

GitHub:

👉 https://github.com/linuxhsj/openclaw-zero-token

 

一起把 AI Agent 玩到极致。🚀

AskOnce - 一次提问,即可获得所有 AI 模型的答案

Read more

[人工智能-大模型-20]:对比 Copilot 与国产替代方案(如通义灵码、百度Comate)

以下是 GitHub Copilot 与主流国产 AI 编程助手(如通义灵码、百度 Comate、DeepSeek Coder、华为云 CodeArts Snap)的全面对比分析,涵盖功能能力、语言支持、中文理解、企业安全、部署方式和性价比等多个维度。 📊 一、产品基本信息对比表 项目GitHub Copilot通义灵码(阿里)百度 ComateDeepSeek Coder华为云 CodeArts Snap开发公司GitHub + Microsoft阿里巴巴百度深度求索(DeepSeek)华为基础模型OpenAI Codex → GPT 架构演进通义千问(Qwen)系列文心大模型 4.0+DeepSeek-Coder 系列盘古大模型是否开源❌ 商业闭源✅ 提供本地化 SDK✅ 支持私有部署✅ 开源可商用✅ 支持信创环境中文支持⚠️ 一般(英文更强)

快速上手指南:5分钟掌握whisper.cpp语音识别

快速上手指南:5分钟掌握whisper.cpp语音识别 【免费下载链接】whisper.cpp 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/whisper.cpp 想要体验离线语音识别的强大功能吗?whisper.cpp就是你的最佳选择!这个基于OpenAI Whisper模型的开源工具,能够在没有网络连接的情况下将语音转换为文字,支持多种语言和输出格式。无论你是想为视频添加字幕,还是需要整理会议记录,whisper.cpp都能轻松胜任。 🎯 项目亮点速览 whisper.cpp作为语音识别领域的明星项目,具备以下核心优势: * 完全离线运行:无需网络连接,保护隐私安全 * 多语言支持:中文、英文、日文等主流语言一网打尽 * 多种模型选择:从轻量级到高精度,满足不同场景需求 * 跨平台兼容:Windows、macOS、Linux全支持 🚀 快速入门指南 第一步:获取项目代码 首先需要下载项目源码到本地: git

SmolVLA高算力适配:TensorRT加速可行性分析与ONNX导出实操

SmolVLA高算力适配:TensorRT加速可行性分析与ONNX导出实操 1. 项目背景与核心价值 SmolVLA作为一款专为经济实惠机器人技术设计的紧凑型视觉-语言-动作模型,在资源受限环境下展现出了令人印象深刻的性能。这个约5亿参数的模型能够同时处理视觉输入、语言指令和动作输出,为机器人控制提供了端到端的解决方案。 在实际部署中,我们经常面临一个关键挑战:如何在保持模型精度的同时,进一步提升推理速度以满足实时控制需求?这就是TensorRT加速技术发挥作用的地方。通过将SmolVLA模型转换为TensorRT引擎,我们有望获得显著的性能提升,特别是在NVIDIA GPU硬件上。 本文将带你深入了解SmolVLA模型的TensorRT加速可行性,并提供详细的ONNX导出实操指南,帮助你在自己的机器人项目中实现更高效的推理性能。 2. TensorRT加速技术解析 2.1 TensorRT的核心优势 TensorRT是NVIDIA推出的高性能深度学习推理优化器和运行时库,它通过多种技术手段提升模型推理效率: * 图层融合:将多个连续的操作层合并为单个内核,减少内

Meta-Llama-3-8B-Instruct避坑指南:从部署到对话全流程解析

Meta-Llama-3-8B-Instruct避坑指南:从部署到对话全流程解析 1. 引言 随着大模型技术的快速发展,Meta于2024年4月发布了Llama 3系列中的中等规模版本——Meta-Llama-3-8B-Instruct。该模型在指令遵循、多任务处理和对话能力方面表现出色,尤其适合单卡部署场景。得益于其GPTQ-INT4量化版本仅需约4GB显存,RTX 3060及以上消费级GPU即可流畅运行,成为个人开发者与中小企业构建AI对话应用的理想选择。 本文基于vllm + open-webui技术栈,结合实际部署经验,系统梳理从环境配置、模型加载到Web界面集成的完整流程,并重点剖析常见问题及其解决方案,帮助读者高效搭建稳定可用的本地化对话系统。 2. 技术选型与核心优势 2.1 模型特性概览 Meta-Llama-3-8B-Instruct 是一个经过指令微调的80亿参数密集模型,具备以下关键优势: * 高性能低门槛:FP16精度下占用约16GB显存,GPTQ-INT4量化后可压缩至4GB以内,支持RTX 3060/4060等主流消费级显卡。 * 长上