【工具】无需Token!WebAI2API将网页AI转为API使用

【工具】无需Token!WebAI2API将网页AI转为API使用
转载请注明出处:小锋学长生活大爆炸[xfxuezhagn.cn]

如果本文帮助到了你,欢迎[点赞、收藏、关注]哦~

背景介绍

        想用OpenClaw、想在自己工具里集成API,但Token太贵了?不过,各大商家不是都提供了免费的网页版吗?比如doubao、ChatGPT,网页版是不限量还免费的!

        所以这次介绍的工具,就是将网页版的AI转成了兼容OpenAI协议的API。以前也有web2api、chat2apt,不过都不更新了。而这次的WebAI2API非常好用。

使用效果

        亲测效果挺好,原理就是:对外提供API接口,接收到请求后默认人工操作去内置浏览器上发送内容,然后将结果再返回给接口。

还提供了一个后端管理系统,可以方便的查看系统状态、管理配置等等。

不只是文字,图片生成也是能实现的。

如果你部署在服务器上,还能远程查看屏幕。

目前支持的AI厂商列表:

网站名称文本生成图片生成视频生成
LMArena🚫
Gemini Enterprise Business
Nano Banana Free🚫🚫
zAI🚫
Google Gemini✅💧✅💧
ZenMux🚫
ChatGPT🚫
DeepSeek🚫🚫
Sora🚫🚫✅💧
Google Flow🚫
豆包
待续...---

部署教程

项目链接:https://github.com/foxhui/WebAI2API

方式一:手动部署

 克隆项目

git clone https://github.com/foxhui/WebAI2API.git cd WebAI2API

调整配置文件

程序初次运行会从config.example.yaml复制配置文件到data/config.yaml。我建议先配置好。

server: # 监听端口 port: 3000 # 鉴权 API Token (可使用 npm run genkey 生成) # 该配置会对 API 接口和 WebUI 生效 auth: sk-change-me-to-your-secure-key

安装与配置

# 1. 安装 NPM 依赖 pnpm install # 2. 安装浏览器等预编译依赖 # ⚠️ 该脚本需连接 GitHub 下载资源。若网络受限,请使用代理 npm run init # 使用代理 # 直接使用 -proxy 可交互式输入代理配置 npm run init -- -proxy=http://username:passwd@host:port # 3. Linux 依赖安装 # 其他发行版请前往文档中心查找或者自行搜索 apt install -y xvfb x11vnc libgtk-3-0 libx11-xcb1 libasound2

启动服务

# 标准启动 npm start # Linux 系统 - 虚拟显示启动 npm start -- -xvfb -vnc # 登录模式 (会临时强行禁用无头模式和自动化) npm start -- -login (-xvfb -vnc)

方式二:Docker 部署

安全提醒:

  • Docker 镜像默认开启虚拟显示器 (Xvfb) 和 VNC 服务
  • 可通过 WebUI 的虚拟显示器板块连接
  • WebUI 传输过程未加密, 公网环境请使用 SSH 隧道或 HTTPS

Docker CLI 启动

docker run -d --name webai-2api \ -p 3000:3000 \ -v "$(pwd)/data:/app/data" \ --shm-size=2gb \ foxhui/webai-2api:latest

Docker Compose 启动

docker-compose up -d

更多配置内容和用法可看官方文档:https://foxhui.github.io/WebAI2API/

Read more

前端学习日记 - 前端函数防抖详解

前端学习日记 - 前端函数防抖详解

前端函数防抖详解 * 为什么使用防抖 * 函数防抖的应用场景 * 函数防抖原理与手写实现 * 原理 * 手写实现 * 使用 Lodash 的 \_.debounce * 完整示例:防抖搜索组件 * 结语 在现代 Web 应用中,函数防抖(debounce)是一种常见且高效的性能优化手段,用于限制高频事件触发下的函数调用次数,从而减少不必要的计算、网络请求或 DOM 操作。本文将从“为什么使用防抖”切入,介绍典型的应用场景,深入解析防抖原理,并给出从零实现到在实际项目中使用 Lodash 的完整代码示例,帮助你快速掌握前端防抖技术。 为什么使用防抖 函数防抖的核心思想是在连续触发的事件停止后,仅执行最后一次调用,以避免频繁触发带来的性能问题 ([MDN Web Docs][1])。 在不使用防抖的情况下,例如在 input 输入事件或 window.resize 事件中直接调用逻辑,页面可能会因短时间内大量调用而出现卡顿或请求风暴 ([GeeksforGeeks]

AI结对编程实录:人机协作的边界与可能

AI结对编程实录:人机协作的边界与可能

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI结对编程实录:人机协作的边界与可能 * 引言:当键盘有了“第二双手” * 第一章:从辅助驾驶到副驾驶 * 1.1 场景:批量数据处理的“第一次尝试” * 1.2 反思:AI真的“理解”了吗? * 第二章:复杂逻辑的重构与架构 * 2.1 场景:将“面条式代码”改为状态机 * 2.2 架构图示:状态流转 * 第三章:调试(Debugging)——人与AI的博弈 * 3.1 场景:棘手的异步竞态条件

OpenClaw 配置教程:在 macOS 上搭建 AI 助手并与飞书集成

摘要 本文记录了在 macOS 系统上安装和配置 OpenClaw 的完整过程,包括: * OpenClaw 的安装与初始化 * Moonshot Kimi API 的配置 * 飞书(Feishu)机器人的接入 * 常见问题与解决方案 目录 1. 什么是 OpenClaw? 2. 环境准备 3. 安装 OpenClaw 4. 配置 Moonshot Kimi API 5. 接入飞书机器人 6. 配置详解 7. 使用技巧 8. 总结 1. 什么是 OpenClaw? OpenClaw 是一个开源的 AI 助手框架,可以将大语言模型(如 Kimi、GPT、

保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程

保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程

文章目录 * 保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程 * 🌟 引言 * 第一步:环境准备 * 1. 安装 Node.js * 2. 安装 Git * 第二步:安装 OpenClaw * 方式一:使用 npm 全局安装(通用推荐) * 方式二:Windows 快捷安装脚本 * 第三步:首次运行与初始化配置 (Onboard) * 1. 环境依赖检查 * 2. 向导配置流程 * 3. 网关启动与测试 * 第四步:进阶玩法——将 OpenClaw 接入钉钉机器人 * 1. 创建钉钉企业内部应用 * 2. 通过 npm 安装钉钉插件 * 3. 测试通道通讯