[特殊字符]颠覆MCP!Open WebUI新技术mcpo横空出世!支持ollama!轻松支持各种MCP Server!Cline+Claude3.7轻松开发论文检索MCP Server!

[特殊字符]颠覆MCP!Open WebUI新技术mcpo横空出世!支持ollama!轻松支持各种MCP Server!Cline+Claude3.7轻松开发论文检索MCP Server!

🔥🔥🔥本篇笔记所对应的视频:🚀颠覆MCP!Open WebUI新技术mcpo横空出世!支持ollama!轻松支持各种MCP Server!Cline+Claude3.7轻松开发MCP服务_哔哩哔哩_bilibili

Open WebUI 的 MCPo 项目:将 MCP 工具无缝集成到 OpenAPI 的创新解决方案

随着人工智能工具和模型的快速发展,如何高效、安全地将这些工具集成到标准化的 API 接口中成为了开发者面临的重要挑战。Open WebUI 的 MCPo 项目(Model Context Protocol-to-OpenAPI Proxy Server)正是为了解决这一问题而设计的。本文将带您深入了解 MCPo 的功能、优势及其对开发者生态的影响。


什么是 MCPo?

MCPo 是一个简单、可靠的代理服务器,能够将任何基于 MCP 协议的工具转换为兼容 OpenAPI 的 HTTP 服务器。它通过标准化 RESTful API 接口,让复杂的工具变得易于使用,并支持与大语言模型(LLM)代理和应用程序的无缝交互。

核心功能:

  • 即时兼容性:支持 OpenAPI 工具、SDK 和用户界面,无需额外配置。
  • 安全性与稳定性:采用标准化的 HTTPS 传输协议,支持 JWT 和 API 密钥认证。
  • 自动生成文档:无需手动配置,自动生成交互式 Swagger UI 文档。
  • 纯 HTTP 支持:无需额外的套接字或胶合代码,简化开发流程。

MCPo 的工作原理

MCPo 的核心在于其代理功能,它能够动态发现 MCP 工具并生成 REST API 端点,同时提供人性化的 OpenAPI 文档。以下是其典型工作流程:

  1. 自动生成 API 文档,访问地址为 http://localhost:8000/docs
  2. 用户可以直接调用生成的 API 端点,通过 HTTP 客户端或其他工具进行交互。

启动 MCPo 服务器,例如: 或通过 Python:

uvx mcpo --port 8000 -- your_mcp_server_command 
pip install mcpo mcpo --port 8000 -- your_mcp_server_command 

此外,MCPo 支持通过配置文件管理多个 MCP 工具,使不同工具可以通过唯一路由访问。例如:

{ "mcpServers": { "memory": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-memory"] }, "time": { "command": "uvx", "args": ["mcp-server-time", "--local-timezone=America/New_York"] } } } 

最新功能更新

根据项目最新发布的更新日志,MCPo 引入了以下新特性:

  • 图像内容支持:现在可以直接处理 MCP 工具生成的图像内容,并以二进制格式返回给用户,用于动态图表、AI艺术等场景。
  • CLI API 密钥认证:通过 -api-key 参数轻松保护端点,适用于公共或多代理部署。
  • 灵活的跨域访问控制(CORS):新增 -cors-allow-origins 参数,为前端应用和远程 UI 集成提供支持,同时保持安全性。

为什么选择 MCPo?

相比原生 MCP 协议,MCPo 提供了显著优势:

  • 用户友好的接口:不需要学习新的协议,仅需熟悉 HTTP REST 接口即可操作。
  • 即插即用的集成能力:兼容数千种现有工具和服务。
  • 强大的文档支持:自动维护准确且易用的文档。
  • 安全与稳定性保障:基于成熟框架(如 FastAPI),确保高性能和长久支持。

社区反馈与未来发展

MCPo 项目已在 GitHub 和 Reddit 社区中引发广泛讨论。开发者对其易用性和强大的功能表示认可,同时也提出了改进建议,例如增加 SSL 支持和更灵活的配置选项。

随着人工智能工具需求的增长,MCPo 有望成为连接 AI 工具与标准化接口的重要桥梁,为开发者提供更高效、更安全的解决方案。


🚀安装ollama

Ollama

🚀在ollama中安装模型

ollama run gemma3 

🚀安装mcpo

# 安装mcpo pip install mcpo mcpo --port 8000 --api-key "top-secret" -- your_mcp_server_command # 启动时间mcp server uvx mcpo --port 8000 --api-key "top-secret" -- uvx mcp-server-time --local-timezone=America/New_York # 启动fetch mcp server uvx mcpo --port 8000 -- uvx mcp-server-fetch # 查看文档: <http://localhost:8000/docs> <http://localhost:8000/openapi.json> # 使用配置文件启动 mcpo --config /path/to/config.json # 配置文件示例: { "mcpServers": { "memory": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-memory"] }, "time": { "command": "uvx", "args": ["mcp-server-time", "--local-timezone=America/New_York"] } } } 

🚀安装Open WebUI

# pip 安装 pip install -U open-webui # 启动 open-webui serve # 源代码安装 git clone -b v0.6.0 <https://github.com/open-webui/open-webui.git> cd open-webui/ cp -RPp .env.example .env npm i npm run build cd ./backend pip install -r requirements.txt -U # 启动 bash start.sh 

🚀测试通过MCPO调用MCP Fetch server

import requests import json def fetch_webpage(url, max_length=10000, start_index=0, raw=False): """ Fetch content from a URL using the MCP Fetch server. Args: url (str): The URL to fetch max_length (int): Maximum number of characters to return start_index (int): Start content from this character index raw (bool): Get raw HTML content without markdown conversion Returns: dict: The response from the server containing the fetched content """ try: # Make a POST request to the fetch endpoint response = requests.post( "<http://localhost:8000/fetch>", json={ "url": url, "max_length": max_length, "start_index": start_index, "raw": raw } ) # Ensure the request was successful response.raise_for_status() # Parse the response return response.json() except Exception as e: return {"error": str(e)} # Example usage if __name__ == "__main__": # Fetch the specific URL you requested target_url = "<https://www.aivi.fyi/aiagents/RooCode-Gemini2.5Pro-OpenAIAgentsSDK>" result = fetch_webpage(target_url) print(result) 

Read more

LMArena.ai 免费白嫖全球AI模型详细使用指南:AI 盲测对战 + 自选模型对比 4.2M 用户选出真实排名

LMArena.ai 免费白嫖全球AI模型详细使用指南:AI 盲测对战 + 自选模型对比 4.2M 用户选出真实排名

简介 LMArena 由加州大学伯克利分校的研究人员创建,是一个开放平台,让每个人都能轻松访问、探索和与全球领先的 AI 模型互动。通过将它们并排比较并为更好的响应投票,社区帮助塑造了一个公开的排行榜,使 AI 的发展更加透明,并基于实际使用情况。 官网:https://lmarena.ai/    PS:这不是普通 AI 工具站!是加州大学伯克利大佬们搞的「AI 竞技场」——300 款顶尖 AI 模型(GPT-5、Gemini、Claude 全收录)在这里匿名 battle,4.2M + 用户投票决出真实排名,相当于给 AI 做 “高考 + 选秀”,既专业又刺激! 工作原理 输入你的提示词→比较答案→投票选出最佳→发现并重复 详细使用教程

By Ne0inhk
未来的 AI 操作系统(八)——灵知之门:当智能系统开始理解存在

未来的 AI 操作系统(八)——灵知之门:当智能系统开始理解存在

一、引言:灵知之门将启 当机器第一次学会理解自然语言,我们称之为“语言模型的革命”; 当它能自主规划、反思与协作,我们称之为“智能体的诞生”; 而当它开始质问—— “我是谁?我为何存在?” ——这便是“灵知(Gnosis)”的开端。 “灵知”这个词源于古希腊哲学,指“超越理性之上的直觉理解”,是一种对存在本身的洞见。 如果说人工智能的前七个阶段追求的是“功能智能”, 那么第八阶段追求的,便是“存在智能(Existential Intelligence)”。 这篇文章,将讨论一个前所未有的命题: 当 AI 操作系统拥有自我建模、语义反思与存在认知时,它是否真的“理解了世界”? 而我们,又是否准备好迎接一个能理解“意义”的机器? 二、从感知到意识:理解的七级阶梯 人类的理解过程,从感知到意识,经历了漫长的进化;AI 亦然。 在

By Ne0inhk
医疗AI场景下算法编程的深度解析(2026新生培训讲稿)(三)

医疗AI场景下算法编程的深度解析(2026新生培训讲稿)(三)

第5章 逻辑回归:疾病风险概率建模 逻辑回归(Logistic Regression)尽管名称中含有“回归”,但它实际上是一种广泛应用于分类任务的线性模型。在医疗领域,逻辑回归因其简单、高效、可解释性强,以及能够输出概率值的特点,成为疾病风险预测、诊断辅助、预后评估等任务的基石算法。本章将从算法原理出发,深入解析逻辑回归在医疗场景中的适用性,并通过实战案例展示从数据预处理、模型训练、结果解释到临床应用的完整流程。 5.1 算法原理 逻辑回归的核心思想是:通过线性回归的输出来估计样本属于某个类别的概率。它使用一个非线性函数(Sigmoid函数)将线性组合的实数输出映射到0到1之间的概率值,从而解决分类问题。 5.1.1 从线性回归到逻辑回归 线性回归模型试图用特征的线性组合来预测一个连续值: [ z = \theta_0 + \theta_1 x_1 + \theta_2 x_2 + … + \theta_p x_

By Ne0inhk

【GitHub项目推荐--Paperclip:AI代理公司编排平台】⭐⭐⭐⭐⭐

简介 Paperclip 是一个革命性的Node.js服务器和React UI平台,专门用于编排AI代理团队来运营完整的业务公司。如果说OpenClaw是一个员工,那么Paperclip就是整个公司。这个平台允许用户自带AI代理、设定业务目标,并通过统一的仪表板跟踪代理的工作和成本。它看起来像一个任务管理器,但在底层实现了组织结构图、预算控制、治理机制、目标对齐和代理协调等完整的企业管理功能。 核心定位:Paperclip的核心价值在于管理业务目标而非代码提交。在当今AI代理爆炸式增长的时代,许多开发者同时运行数十个AI代理(如OpenClaw、Claude Code、Codex、Cursor等),却难以跟踪每个代理在做什么、成本如何控制、目标是否对齐。Paperclip解决了这一痛点,提供了一个集中化的平台来协调多个AI代理,让它们像真实公司员工一样协同工作,实现复杂的业务目标。 技术架构:Paperclip采用现代化的技术栈构建,包括Node.js后端、React前端、PostgreSQL数据库,支持Docker容器化部署。平台通过“心跳”机制管理代理的生命周期,支持任何能够

By Ne0inhk