[特殊字符]颠覆MCP!Open WebUI新技术mcpo横空出世!支持ollama!轻松支持各种MCP Server!Cline+Claude3.7轻松开发论文检索MCP Server!

[特殊字符]颠覆MCP!Open WebUI新技术mcpo横空出世!支持ollama!轻松支持各种MCP Server!Cline+Claude3.7轻松开发论文检索MCP Server!

🔥🔥🔥本篇笔记所对应的视频:🚀颠覆MCP!Open WebUI新技术mcpo横空出世!支持ollama!轻松支持各种MCP Server!Cline+Claude3.7轻松开发MCP服务_哔哩哔哩_bilibili

Open WebUI 的 MCPo 项目:将 MCP 工具无缝集成到 OpenAPI 的创新解决方案

随着人工智能工具和模型的快速发展,如何高效、安全地将这些工具集成到标准化的 API 接口中成为了开发者面临的重要挑战。Open WebUI 的 MCPo 项目(Model Context Protocol-to-OpenAPI Proxy Server)正是为了解决这一问题而设计的。本文将带您深入了解 MCPo 的功能、优势及其对开发者生态的影响。


什么是 MCPo?

MCPo 是一个简单、可靠的代理服务器,能够将任何基于 MCP 协议的工具转换为兼容 OpenAPI 的 HTTP 服务器。它通过标准化 RESTful API 接口,让复杂的工具变得易于使用,并支持与大语言模型(LLM)代理和应用程序的无缝交互。

核心功能:

  • 即时兼容性:支持 OpenAPI 工具、SDK 和用户界面,无需额外配置。
  • 安全性与稳定性:采用标准化的 HTTPS 传输协议,支持 JWT 和 API 密钥认证。
  • 自动生成文档:无需手动配置,自动生成交互式 Swagger UI 文档。
  • 纯 HTTP 支持:无需额外的套接字或胶合代码,简化开发流程。

MCPo 的工作原理

MCPo 的核心在于其代理功能,它能够动态发现 MCP 工具并生成 REST API 端点,同时提供人性化的 OpenAPI 文档。以下是其典型工作流程:

  1. 自动生成 API 文档,访问地址为 http://localhost:8000/docs
  2. 用户可以直接调用生成的 API 端点,通过 HTTP 客户端或其他工具进行交互。

启动 MCPo 服务器,例如: 或通过 Python:

uvx mcpo --port 8000 -- your_mcp_server_command 
pip install mcpo mcpo --port 8000 -- your_mcp_server_command 

此外,MCPo 支持通过配置文件管理多个 MCP 工具,使不同工具可以通过唯一路由访问。例如:

{ "mcpServers": { "memory": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-memory"] }, "time": { "command": "uvx", "args": ["mcp-server-time", "--local-timezone=America/New_York"] } } } 

最新功能更新

根据项目最新发布的更新日志,MCPo 引入了以下新特性:

  • 图像内容支持:现在可以直接处理 MCP 工具生成的图像内容,并以二进制格式返回给用户,用于动态图表、AI艺术等场景。
  • CLI API 密钥认证:通过 -api-key 参数轻松保护端点,适用于公共或多代理部署。
  • 灵活的跨域访问控制(CORS):新增 -cors-allow-origins 参数,为前端应用和远程 UI 集成提供支持,同时保持安全性。

为什么选择 MCPo?

相比原生 MCP 协议,MCPo 提供了显著优势:

  • 用户友好的接口:不需要学习新的协议,仅需熟悉 HTTP REST 接口即可操作。
  • 即插即用的集成能力:兼容数千种现有工具和服务。
  • 强大的文档支持:自动维护准确且易用的文档。
  • 安全与稳定性保障:基于成熟框架(如 FastAPI),确保高性能和长久支持。

社区反馈与未来发展

MCPo 项目已在 GitHub 和 Reddit 社区中引发广泛讨论。开发者对其易用性和强大的功能表示认可,同时也提出了改进建议,例如增加 SSL 支持和更灵活的配置选项。

随着人工智能工具需求的增长,MCPo 有望成为连接 AI 工具与标准化接口的重要桥梁,为开发者提供更高效、更安全的解决方案。


🚀安装ollama

Ollama

🚀在ollama中安装模型

ollama run gemma3 

🚀安装mcpo

# 安装mcpo pip install mcpo mcpo --port 8000 --api-key "top-secret" -- your_mcp_server_command # 启动时间mcp server uvx mcpo --port 8000 --api-key "top-secret" -- uvx mcp-server-time --local-timezone=America/New_York # 启动fetch mcp server uvx mcpo --port 8000 -- uvx mcp-server-fetch # 查看文档: <http://localhost:8000/docs> <http://localhost:8000/openapi.json> # 使用配置文件启动 mcpo --config /path/to/config.json # 配置文件示例: { "mcpServers": { "memory": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-memory"] }, "time": { "command": "uvx", "args": ["mcp-server-time", "--local-timezone=America/New_York"] } } } 

🚀安装Open WebUI

# pip 安装 pip install -U open-webui # 启动 open-webui serve # 源代码安装 git clone -b v0.6.0 <https://github.com/open-webui/open-webui.git> cd open-webui/ cp -RPp .env.example .env npm i npm run build cd ./backend pip install -r requirements.txt -U # 启动 bash start.sh 

🚀测试通过MCPO调用MCP Fetch server

import requests import json def fetch_webpage(url, max_length=10000, start_index=0, raw=False): """ Fetch content from a URL using the MCP Fetch server. Args: url (str): The URL to fetch max_length (int): Maximum number of characters to return start_index (int): Start content from this character index raw (bool): Get raw HTML content without markdown conversion Returns: dict: The response from the server containing the fetched content """ try: # Make a POST request to the fetch endpoint response = requests.post( "<http://localhost:8000/fetch>", json={ "url": url, "max_length": max_length, "start_index": start_index, "raw": raw } ) # Ensure the request was successful response.raise_for_status() # Parse the response return response.json() except Exception as e: return {"error": str(e)} # Example usage if __name__ == "__main__": # Fetch the specific URL you requested target_url = "<https://www.aivi.fyi/aiagents/RooCode-Gemini2.5Pro-OpenAIAgentsSDK>" result = fetch_webpage(target_url) print(result) 

Read more

基于ASR的语音切分与说话人区分实战:从算法选型到生产环境部署

快速体验 在开始今天关于 基于ASR的语音切分与说话人区分实战:从算法选型到生产环境部署 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 基于ASR的语音切分与说话人区分实战:从算法选型到生产环境部署 背景痛点:为什么语音切分与说话人区分如此困难? 在处理连续语音流时,开发者常遇到两个核心问题:语音切分不准和说话人混淆。想象一个会议录音场景,当多人快速交替发言时,传统方法很难准确判断一句话的起止时间以及谁在说话。 通过FFT频谱图可以直观看到挑战: *

By Ne0inhk
数据结构——跳表

数据结构——跳表

目录 1.什么是跳表-skiplist 2.skiplist的效率如何保证? 3.skiplist的实现 4.skiplist跟平衡搜索树和哈希表的对比 1.什么是跳表-skiplist         skiplist本质上也是一种查找结构,用于解决算法中的查找问题,跟平衡搜索树和哈希表的价值是一样的,可以作为key或者key/value的查找模型。那么相比而言它的优势是什么的呢?这么等我们学习完它的细节实现,我们再来对比         skiplist是由William Pugh发明的,最早出现于他在1990年发表的论文《Skip Lists: A Probabilistic Alternative to Balanced Trees》         skiplist,顾名思义,首先它是一个list。实际上,它是在有序链表的基础上发展起来的。如果是一个有序的链表,查找数据的时间复杂度是O(N) William Pugh开始的优化思路: 1. 假如我们每相邻两个节点升高一层,增加一个指针,让指针指向下下个节点,如下图b所 示。这样所有新增加的指针连成了

By Ne0inhk
数据结构之图论详解

数据结构之图论详解

找往期文章包括但不限于本期文章中不懂的知识点: 个人主页:我要学编程(ಥ_ಥ)-ZEEKLOG博客 所属专栏:数据结构(Java版) 目录 图的基本概念 图的存储结构 邻接矩阵 邻接表 图的遍历 广度优先遍历(BFS) 深度优先遍历(DFS)  最小生成树 Kruskal算法(克鲁斯卡尔算法) Prim算法(普利姆算法) 最短路径 单源最短路径 — Dijkstra算法 单源最短路径—Bellman-Ford算法 多源最短路径—Floyd-Warshall算法  图的基本概念 图是由顶点集合及顶点间的关系组成的一种数据结构:G=(V,E),其中顶点集合V={x|x属于某个数据对象集}是有穷非空集合;E = {(x,y)|x,y属于V}或者E = {<x, y>

By Ne0inhk
【算法】二分查找算法详解与模板总结:从原理到变体,一篇就够了

【算法】二分查找算法详解与模板总结:从原理到变体,一篇就够了

目录 * 二分查找算法详解 * 基本原理 * 算法步骤 * 代码实现 * 基础版本(查找精确值) * 时间复杂度分析 * 二分查找的变体 * 1. 查找第一个等于目标的位置 * 2. 查找最后一个等于目标的位置 * 3. 查找第一个大于等于目标的位置 * 常见应用场景 * 注意事项和常见错误 * 二分算法模板总结 * 实战练习题目(含链接) 二分查找算法详解 二分查找(Binary Search)是一种在有序数组中查找特定元素的高效算法。它的核心思想是分而治之,每次将搜索范围缩小一半。 基本原理 想象你在查英语字典找"apple"这个词: 1. 翻开字典的中间 2. 如果这一页的单词在"apple"之前,就往后翻 3. 如果这一页的单词在"apple"之后,就往前翻 4.

By Ne0inhk