【工具】无需Token!WebAI2API将网页AI转为API使用

【工具】无需Token!WebAI2API将网页AI转为API使用
转载请注明出处:小锋学长生活大爆炸[xfxuezhagn.cn]

如果本文帮助到了你,欢迎[点赞、收藏、关注]哦~

背景介绍

        想用OpenClaw、想在自己工具里集成API,但Token太贵了?不过,各大商家不是都提供了免费的网页版吗?比如doubao、ChatGPT,网页版是不限量还免费的!

        所以这次介绍的工具,就是将网页版的AI转成了兼容OpenAI协议的API。以前也有web2api、chat2apt,不过都不更新了。而这次的WebAI2API非常好用。

使用效果

        亲测效果挺好,原理就是:对外提供API接口,接收到请求后默认人工操作去内置浏览器上发送内容,然后将结果再返回给接口。

还提供了一个后端管理系统,可以方便的查看系统状态、管理配置等等。

不只是文字,图片生成也是能实现的。

如果你部署在服务器上,还能远程查看屏幕。

目前支持的AI厂商列表:

网站名称文本生成图片生成视频生成
LMArena🚫
Gemini Enterprise Business
Nano Banana Free🚫🚫
zAI🚫
Google Gemini✅💧✅💧
ZenMux🚫
ChatGPT🚫
DeepSeek🚫🚫
Sora🚫🚫✅💧
Google Flow🚫
豆包
待续...---

部署教程

项目链接:https://github.com/foxhui/WebAI2API

方式一:手动部署

 克隆项目

git clone https://github.com/foxhui/WebAI2API.git cd WebAI2API

调整配置文件

程序初次运行会从config.example.yaml复制配置文件到data/config.yaml。我建议先配置好。

server: # 监听端口 port: 3000 # 鉴权 API Token (可使用 npm run genkey 生成) # 该配置会对 API 接口和 WebUI 生效 auth: sk-change-me-to-your-secure-key

安装与配置

# 1. 安装 NPM 依赖 pnpm install # 2. 安装浏览器等预编译依赖 # ⚠️ 该脚本需连接 GitHub 下载资源。若网络受限,请使用代理 npm run init # 使用代理 # 直接使用 -proxy 可交互式输入代理配置 npm run init -- -proxy=http://username:passwd@host:port # 3. Linux 依赖安装 # 其他发行版请前往文档中心查找或者自行搜索 apt install -y xvfb x11vnc libgtk-3-0 libx11-xcb1 libasound2

启动服务

# 标准启动 npm start # Linux 系统 - 虚拟显示启动 npm start -- -xvfb -vnc # 登录模式 (会临时强行禁用无头模式和自动化) npm start -- -login (-xvfb -vnc)

方式二:Docker 部署

安全提醒:

  • Docker 镜像默认开启虚拟显示器 (Xvfb) 和 VNC 服务
  • 可通过 WebUI 的虚拟显示器板块连接
  • WebUI 传输过程未加密, 公网环境请使用 SSH 隧道或 HTTPS

Docker CLI 启动

docker run -d --name webai-2api \ -p 3000:3000 \ -v "$(pwd)/data:/app/data" \ --shm-size=2gb \ foxhui/webai-2api:latest

Docker Compose 启动

docker-compose up -d

更多配置内容和用法可看官方文档:https://foxhui.github.io/WebAI2API/

Read more

2026年各大高校AIGC检测政策汇总(持续更新)

2026年各大高校AIGC检测政策汇总(持续更新)

2026年各大高校AIGC检测政策汇总(持续更新) 2026年毕业季正式来临,AIGC检测已经不再是"可能会查",而是"一定会查"。从去年下半年到现在,全国高校密集出台了一系列针对论文AI生成内容的检测政策。本文将为大家做一个尽可能全面的汇总,方便同学们快速了解自己学校的要求,提前做好准备。 本文持续更新,建议收藏。 2026年高校AIGC检测的整体趋势 在详细列出各高校政策之前,先给大家概括一下今年的整体形势: 三大核心变化 1. 检测范围全覆盖:不再只是抽检,而是全部论文必查AIGC 2. 检测标准趋严:AI率阈值从去年普遍的30%收紧到20%甚至10% 3. 处罚力度加大:从"修改后重新提交"升级到"延期答辩"甚至"取消答辩资格" 主要检测平台分布 * 知网AIGC检测系统:覆盖约60%的985/211高校

VSCode自定义Copilot Agent与Awesome Agent

VSCode自定义Copilot Agent与Awesome Agent

本文将介绍如何在VSCode中创建自定义的Agent,以及哪里可以获取到现有的Agent模板 当我们在VSCode中使用Copilot时,可以选择以下几种模式。 Ask, Edit, Agent, 以及在2025年末时我们可以使用的全新的Plan模式。 不过除此之外,其实我们还有办法自定义属于自己的Agent。 选择右下角Agent菜单,选择Configure Custom Agents... 如选择.github\agents 则会在本工作区域中生成该路径并创建一个指定命名的agent.md文件 如果选择User Data则是会创建全局的Agent模板 在vscode中,也可以直接在文件中通过Configure Tools轻松配置所需要使用的tools,非常方便。 然后我们便可以在copilot中使用自己的Agent了. 当然,自己编写一个相对复杂的agent模板比较耗时,而awesome-copilot项目为我们提供了许多的模板,当然不止是agent,也提供了丰富的提示词模板(prompt)和指导词模板(instructions),以及

Windows 环境下 llama.cpp 编译 + Qwen 模型本地部署全指南

在大模型落地场景中,本地轻量化部署因低延迟、高隐私性、无需依赖云端算力等优势,成为开发者与 AI 爱好者的热门需求。本文聚焦 Windows 10/11(64 位)环境,详细拆解 llama.cpp 工具的编译流程(支持 CPU/GPU 双模式,GPU 加速需依赖 NVIDIA CUDA),并指导如何通过 modelscope 下载 GGUF 格式的 Qwen-7B-Chat 模型,最终实现模型本地启动与 API 服务搭建。 1.打开管理员权限的 PowerShell/CMD,执行以下命令克隆代码: git clone https://github.com/ggml-org/llama.cpp mkdir