MCP Gateway:零侵入式 API 到 MCP 协议的转换网关

MCP Gateway:零侵入式 API 到 MCP 协议的转换网关

文章目录

在这里插入图片描述

概述

MCP狂欢迎来了很多玩乐的MCP Server,但是也有很多产品和B端开始接入MCP,当MCP真正应用到生产环境的时候,势必会遇到大量存量的服务、API需要改造,涉及投入资源去做,因此就需要有一个MCP层面的“Nginx”来反向代理存量的API,让个人和企业可以快速接入MCP生态,快速验证想法验证市场,而不需要一开始大量effort去投入改造。

目前市场上只有Higress在支持MCP网关后迎来第二春,但是我觉得Higress并不一定适合所有人,他的接入成本略高,文档缺失,配置难以捉摸,基于istio、envoy、wasm这一套的学习成本不低,尤其希望能做一定的二开,极其痛苦。但是不可否认阿里在大规模场景下是有技术护城河的,这边只是客观描述现存问题,不拉不踩。基于这样的背景,我觉得市面上是需要存在一个更低成本、平台中立、轻量化的方案,因此我开源了这个项目,目前我们在生产环境也在持续接入MCP,因此未来会持续迭代,目前v0.2.2版本已经支持Docker allinone,集简易管理平台+核心网关服务,轻松低负担配置后可直接使用。


✨ MCP Gateway 是什么?

MCP Gateway 是一个用 Go 编写的轻量高可用网关服务,帮助个人与企业将已有的 API 通过配置方式转换为符合 MCP 协议 的服务,无需改动任何代码。


官网

GitHub: https://github.com/AmoyLab/Unla
文档:https://mcp.ifuryst.com


核心设计理念

✅ 零侵入:平台中立,适配物理机、虚拟机、ECS、K8s 等环境,无需改动现有基础设施
🔄 配置驱动:通过 YAML 配置即可将存量 API 转换为 MCP Server,无需改代码
🪶 轻量高效:架构极致轻量,拒绝在性能与高可用性上妥协
🧭 内置管理界面:开箱即用的 Web UI,降低学习与运维成本

架构图

在这里插入图片描述

快速开始

一键启动 MCP Gateway

这边需要注意几个环境变量的内容要改一下:

export OPENAI_API_KEY="sk-eed837fb0b4a62ee69abc29a983492b7PlsChangeMe" export OPENAI_MODEL="gpt-4o-mini" export APISERVER_JWT_SECRET_KEY="fec6d38f73d4211318e7c85617f0e333PlsChangeMe" export SUPER_ADMIN_USERNAME="admin" export SUPER_ADMIN_PASSWORD="297df52fbc321ebf7198d497fe1c9206PlsChangeMe"

一键拉起

docker run -d \ --name unla \ -p 8080:80 \ -p 5234:5234 \ -p 5235:5235 \ -p 5335:5335 \ -p 5236:5236 \ -e ENV=production \ -e TZ=Asia/Shanghai \ -e OPENAI_API_KEY=${OPENAI_API_KEY} \ -e OPENAI_MODEL=${OPENAI_MODEL} \ -e APISERVER_JWT_SECRET_KEY=${APISERVER_JWT_SECRET_KEY} \ -e SUPER_ADMIN_USERNAME=${SUPER_ADMIN_USERNAME} \ -e SUPER_ADMIN_PASSWORD=${SUPER_ADMIN_PASSWORD} \ --restart unless-stopped \ ghcr.io/amoylab/unla/allinone:latest 

中国境内的设备可以拉阿里云仓库的镜像并自定义模型(这边示例是千问)

export OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1/" export OPENAI_API_KEY="sk-eed837fb0b4a62ee69abc29a983492b7PlsChangeMe" export OPENAI_MODEL="qwen-turbo" export APISERVER_JWT_SECRET_KEY="fec6d38f73d4211318e7c85617f0e333PlsChangeMe" export SUPER_ADMIN_USERNAME="admin" export SUPER_ADMIN_PASSWORD="297df52fbc321ebf7198d497fe1c9206PlsChangeMe"

一键拉起

docker run -d \ --name unla \ -p 8080:80 \ -p 5234:5234 \ -p 5235:5235 \ -p 5335:5335 \ -p 5236:5236 \ -e ENV=production \ -e TZ=Asia/Shanghai \ -e OPENAI_BASE_URL=${OPENAI_BASE_URL} \ -e OPENAI_API_KEY=${OPENAI_API_KEY} \ -e OPENAI_MODEL=${OPENAI_MODEL} \ -e APISERVER_JWT_SECRET_KEY=${APISERVER_JWT_SECRET_KEY} \ -e SUPER_ADMIN_USERNAME=${SUPER_ADMIN_USERNAME} \ -e SUPER_ADMIN_PASSWORD=${SUPER_ADMIN_PASSWORD} \ --restart unless-stopped \ registry.ap-southeast-1.aliyuncs.com/amoylab/unla-allinone:latest 

访问和配置

访问 Web 界面:

在浏览器中打开 http://localhost:8080/
使用配置的管理员账号密码登录

添加 MCP Server:

复制配置文件:https://github.com/amoylab/unla/blob/main/configs/mock-server.yaml
在 Web 界面上点击 “Add MCP Server”
粘贴配置并保存
添加 MCP Server 示例

在这里插入图片描述

可用端点
配置完成后,服务将在以下端点可用:

MCPSSE: http://localhost:5235/mcp/user/sse MCPSSEMessage: http://localhost:5235/mcp/user/message MCPStreamableHTTP: http://localhost:5235/mcp/user/mcp 

在MCP Client中配置/sse或/mcp后缀的url即可开始使用

测试

您可以通过以下两种方式测试服务:

使用 Web 界面中的 MCP Chat 页面
使用您自己的 MCP Client(推荐)
高级配置(可选)
如果您需要更细粒度的配置控制,可以通过挂载配置文件的方式启动:

创建必要的目录并下载配置文件:

mkdir -p unla/{configs,data} cd unla/ curl -sL https://raw.githubusercontent.com/amoylab/unla/refs/heads/main/configs/apiserver.yaml -o configs/apiserver.yaml curl -sL https://raw.githubusercontent.com/amoylab/unla/refs/heads/main/configs/mcp-gateway.yaml -o configs/mcp-gateway.yaml curl -sL https://raw.githubusercontent.com/amoylab/unla/refs/heads/main/.env.example -o .env.allinone 

使用 Docker 运行 MCP Gateway:

docker run -d \ --name unla \ -p 8080:80 \ -p 5234:5234 \ -p 5235:5235 \ -p 5335:5335 \ -p 5236:5236 \ -e ENV=production \ -v $(pwd)/configs:/app/configs \ -v $(pwd)/data:/app/data \ -v $(pwd)/.env.allinone:/app/.env \ --restart unless-stopped \ ghcr.io/amoylab/unla/allinone:latest 
在这里插入图片描述

Read more

Vibe Coding范式实战:用AI工具链(Stitch+Figma+ai studio+Trae)快速开发全栈APP

Vibe Coding范式实战:用AI工具链(Stitch+Figma+ai studio+Trae)快速开发全栈APP

文章目录 * 概要 * stitch制作设计稿 * figma 原型展示 * ai studio 生成前端代码 * 基于trae + Supabase生成后端代码和数据库 * Github + vercel * pc端后台管理系统设计 概要 在 AI 技术深度渗透软件开发领域的当下,一种名为 “Vibe Coding”(氛围编程)的全新范式正在重塑开发者的工作方式。它的核心在于,开发者不再是逐行编写代码的 “码农”,而是通过自然语言描述意图、引导 AI 生成代码的 “创意引导者” 和 “结果验证者”,从而将精力聚焦于更高价值的产品设计和逻辑思考上。 本文提供一种 Vibe Coding 的工作模式:设计阶段以 Google Stitch 为起点,开发者通过文本或草图快速生成响应式 UI 设计与前端代码,再无缝导入 Figma 进行精细化视觉调整和原型设计,实现了从 “想法” 到

By Ne0inhk
国产大模型DeepSeek V4性能逆天,编程封神,成本暴降90%,小白也能玩转AI大模型!

国产大模型DeepSeek V4性能逆天,编程封神,成本暴降90%,小白也能玩转AI大模型!

DeepSeek V4在编程、上下文处理、推理成本上实现重大突破,编程能力超越Claude Opus 4.5和GPT-5.2,上下文窗口扩展至100万Token,推理成本降低90%。尽管部分泄露数据存疑,但V4的技术潜力巨大,标志着国产AI进入全球并行阶段,为AI普惠奠定基础。 100万Token上下文,编程封神,成本暴降90%,春节档的核弹来了? 春节的烟火未散,AI圈却已炸开了锅。 一张标注为国产大模型DeepSeek V4的基准测试成绩单,在开发者社区、科技论坛及社交平台疯狂扩散,短时间内引爆全网讨论——海外Hugging Face、LMSYS等平台讨论量激增,国内开发者直呼“国产AI要改写行业格局”。 更有多方信源透露,这款性能逆天的新模型,疑似今日(2月17日) 正式发布。 这究竟是又一次“PPT发布”,还是国产AI真正的里程碑时刻?今天,结合全网泄露数据与技术论文,拆解这份“春节档答卷”。 🔥 核心亮点直击:三大突破,剑指海外顶尖模型 此次泄露的基准测试数据,覆盖编程能力、上下文处理、推理成本三大核心维度。

By Ne0inhk
OpenClaw 浏览器控制终极方案 - 让 AI 助手随时控制你的浏览器:

OpenClaw 浏览器控制终极方案 - 让 AI 助手随时控制你的浏览器:

🚀 懒人版:你可能都不用看这篇文章 直接把这篇文章发给 Claude Code,让它帮你执行就行了。它会:创建一个 Chrome Debug 浏览器实例配置好所有参数 然后去 OpenClaw 的 bot 里告诉它: "更新下身份信息:当前你需要去查询信息资料、联网之类的,优先使用已经可以打开的可调试浏览器实例去控制打开搜索等。比如: 使用 --browser-profile mydebug 来控制已打开的浏览器实例。" 搞定!🎉 一个被忽视的痛点 你有没有遇到过这样的场景: 你让 AI 助手帮你搜索信息,它打开了一个全新的浏览器窗口。 然后你发现: * 推特要重新登录 * GitHub 要重新登录 * Google 要重新登录 * 甚至有些网站直接把你当成机器人,拒绝访问 为什么? 因为 AI 助手用的是一个"干净"的浏览器环境,

By Ne0inhk