实战篇:Python开发monogod数据库mcp server看完你就会了

实战篇:Python开发monogod数据库mcp server看完你就会了
原创不易,请关注公众号:【爬虫与大模型开发】,大模型的应用开发之路,整理了大模型在现在的企业级应用的实操及大家需要注意的一些AI开发的知识点!持续输出爬虫与大模型的相关文章。

前言

目前mcp协议是给deepseek大模型插上工具链的翅膀,让大模型不仅拥有超高的推理和文本生成能力,还能具备执行大脑意识的工具能力!

如何开发一个mcp?

mcp是一种协议,指的是模型上下文协议 (Model Context Protocol)。

官方结成的mcp
https://github.com/modelcontextprotocol/python-sdk

mcp库
pip install mcp from mcp.server.fastmcp import FastMCP 

我们先来做一个简单的案例

from mcp.server.fastmcp import FastMCP import requests mcp = FastMCP("spider") @mcp.tool() def crawl(url: str) -> int:     """获取网页的源代码""" resposne = requests.get(url)     return response.text if __name__ == "__main__":     mcp.run(transport='stdio') #mcp.run(transport="sse") 
以上代码实现了FastMCP 库来创建一个简单的 MCP 服务器,它提供一个基本的工具(工具名:crawl),用于是实现源代码的获取。这是一个非常简单的爬虫mcp入门示例,适合理解 MCP 服务器的工作原理和 FastMCP 的基本用法。

代码分析

首先,从 mcp.server.fastmcp 模块中导入了 FastMCP 类。接着,创建了一个 FastMCP 类的实例,命名为 spider。

FastMCP 是服务器的核心类,它负责管理工具、资源和通信。参数「spider」是服务器的名称,用于标识这个 MCP 服务器。

然后,@mcp.tool() 是一个装饰器(decorator),它告诉 FastMCP 将 crawl 函数注册为一个可供客户端调用的工具。

文档字符串(“”“获取网页的源代码”“”):这是函数的描述,客户端(如 MCP Inspector)会显示这个描述,帮助用户理解工具的功能。这个工具可以被外部客户端调用!

例如通过 MCP 协议发送请求,传入url,服务器会返回它的网页源代码。

mcp.run(transport=‘stdio’) 启动 MCP 服务器,进入监听状态,等待客户端的连接和请求。transport=‘stdio’ 指定了通信方式为标准输入输出(Standard I/O)。这意味着服务器通过命令行的标准输入(stdin)和标准输出(stdout)与客户端通信,适合本地开发和测试。

mcp.run(transport=‘stdio’)启动 MCP 服务器,如果需要远程通信,可以更改为其他传输方式(如 ‘sse’,Server-Sent Events)。

fastapi-mcp库
pip install fastapi-mcp from fastapi_mcp import add_mcp_server 

案例分析

import requests from fastapi import FastAPI, HTTPException, Query from pydantic import BaseModel from typing import Optional from fastapi_mcp import add_mcp_server # Create a simple FastAPI app app = FastAPI( title=spider", description="A simple example API with integrated MCP server", version="0.1.0", ) @app.get("/items/{url}", response_model=Item, tags=["items"]) def crawl(url: Optional[str] = Query(None, description="get websource from url")) -> dict:     """获取网页的源代码""" resposne = requests.get(url)     return {"response":response.text} mcp_server = add_mcp_server( app, mount_path="/mcp", # 挂着mcp服务器的地址 name="Item API MCP", # mcp服务的名称 description="MCP server for the Item API", base_url="http://localhost:8000", describe_all_responses=False, describe_full_response_schema=False, ) if __name__ == "__main__": import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000) 
fastapi_mcp分析

上面的案例引入了fastapi和fastapi-mcp并实例化一个fastapi的类;

然后使用fastapi编写了一个方法用户获取一个url站点的源代码;

使用fastspi-mcp创建一个实例化的mcp_server,将上面的fastapi服务注册为一个mcp服务,可以配置mcp服务调用的路由为http://localhost:8000/mcp

最后导入uvicorn库,正常启动fastapi的服务;可以无缝的将代码转成mcp server!

以上两种实现MCP服务的方式,都可以学习下,尤其是如果你本身对fastapi比较的熟练,那么可以直接使用fastapi-mcp将服务注册为MCP server!如果熟悉python,但是不熟悉fastapi也可以使用官方推荐的mcp库,节省学习的成本,降低学习难度系数!

实战编写mongodb数据库查询MCP服务

import sys from datetime import datetime import traceback import uvicorn from fastapi_mcp import add_mcp_server from fastapi import FastAPI, status, HTTPException, Response, Query import motor.motor_asyncio app = FastAPI() ......代码省略..... # 根据结构式获取化合物计算属性的值 @app.get("/api/computes/", status_code=status.HTTP_200_OK, summary="根据结构式获取化合物计算属性的值") async def computed(smiles: Optional[str] = Query(None, description="Search smiles string")): result = ChemRdkit(smiles=smiles).computed if result and result.get("code") == 200: del result["code"] return ResponseModel(data=result, message="success") return ErrorResponseModel(error=result.get("error"), code=status.HTTP_404_NOT_FOUND, message=result.get("message")) # 获取单个化合物 @app.get("/api/chemicals/{casno}/", status_code=status.HTTP_200_OK, summary="根据casno获取单个化合物") async def chemicals(casno:str): """" 根据casno获取化合物 """ result = await chemical_get_data(casno=casno) if result: return ResponseModel(data=result, message="success") return ErrorResponseModel(error="数据不存在", code=status.HTTP_404_NOT_FOUND, message="数据不存在") # raise HTTPException(400, "Something went wrong") # 访问结构式图片 @app.get("/image/{filename}/", status_code=status.HTTP_200_OK, summary="访问结构式图片") async def get_image(filename: str): print(filename) # 获取图片二进制 image_content = struct_obj.get_struct(filename) if image_content: return Response(content=image_content, media_type="image/jpeg") # 不存在,通过filename获取casno号的基本信息,使用rdkit库根据smiles(存在)生成结构式图片 obj = await get_smiles(casno=filename.replace("_", "-")) if obj: ChemRdkit(smiles=obj.get("smiles", "")).struct(filename=obj.get("casno")) image_content = struct_obj.get_struct(filename) if image_content: return Response(content=image_content, media_type="image/jpeg") return None mcp_server = add_mcp_server( app, mount_path="/mcp", # 挂着mcp服务器的地址 name="Item API MCP", # mcp服务的名称 description="MCP server for the Item API", base_url="http://192.168.1.250:9999", describe_all_responses=False, describe_full_response_schema=False, ) if __name__ == "__main__": uvicorn.run(app, host="0.0.0.0", port=9999) 

结果输出

实现查询casno的基本信息,以及根据smiles生成化合物的属性信息

以上就可以把企业本地查询数据的一般能力集成到deepseek中了!让企业赶的上AI的快车!

搭建自己的本地MCP hub

Hub 服务器 (MCP Hub): 作为中央管理服务器,连接并管理多个 MCP 服务器。它为客户端提供统一的 API 入口,并将请求路由到相应的 MCP 服务器。

docker run --name=mcphub -p 3001:3000 --restart=always -d registry.cn-hangzhou.aliyuncs.com/samanhappy/mcphub 

浏览器输入:http://localhost:3001/

1panel MCP server

目前仅支持stdio的输出协议!

Ubuntu安装

curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sudo bash quick_start.sh 
其他MCP服务参考

https://github.com/punkpeye/awesome-mcp-servers/tree/main

送书福利

DeepSeek作为开源大模型的典范,融合了Transformer架构、MoE(混合专家)机制及自监督学习等前沿技术,在性能与扩展性上优势显著。为助力技术人员系统掌握DeepSeek的开发原理与应用,笔者撰写了本书,旨在为读者提供从理论到实践的全面指导。

只要关注+点赞+评论 评论区选择2人送书

联系方式

加入星球:
原创不易,点个关注!
不会错过后面的优质文章!
觉着写的不错的可以帮忙点点赞
关注公众号:【爬虫与大模型开发】
需要以上源代码的下面关注并私信!
活跃在一线的Python工程师分享自己学习之路
我创建了【爬虫与大模型开发】的知识星球
适合爱好爬虫及从事爬虫的同学
需要代码提示词加我星球!

需要完整代码扫码星球自提!

Read more

二叉搜索树·极速分拣篇」:用C++怒肝《双截棍》分拣算法,暴打节点删除Boss战!

二叉搜索树·极速分拣篇」:用C++怒肝《双截棍》分拣算法,暴打节点删除Boss战!

【温馨提示,本文是理论文,手撕的文章还在加急处理中】 前言:         程序员老张最近失业了。不是因为他写代码时把分号敲成了希腊字母“α”(虽然这确实发生过),而是因为他试图用一坨意大利面条——哦不,是一坨链表——给楼下菜鸟驿站的快递包裹做自动分拣。结果某位邻居收到了一箱猫粮和三双荧光绿洞洞鞋,而隔壁程序员小王则被迫签收了一整箱《母猪产后护理指南》。 “你这分拣系统,简直比量子力学还薛定谔。”小王愤怒地在业主群@他。         老张痛定思痛,终于悟了: 链表就像单身汉的衣柜——东西随便塞,找起来要命;而二叉搜索树,才是强迫症的天堂——左小右大,泾渭分明。         今天,就让我们用C++给快递小哥打造一棵“二叉搜索树分拣机”,保证从此以后,你的包裹再也不会和邻居的假发、前任的结婚请柬、以及小区广场舞领队的“震楼级”蓝牙音箱纠缠不清。 (小声:如果代码跑着跑着突然开始给你的袜子配对,别慌,那是BST在拓展副业。) 1.二叉搜索树的概念         二叉搜索树又被称之为二叉排序树,它或者是一棵空树,或者是一棵具有以下性质的树: 1.如果它的左子树

By Ne0inhk

apamit:Hive Keychain Extension

apamit:Hive Keychain Extension 一款安全便捷的Hive钱包浏览器扩展。 项目介绍 Hive Keychain Extension 是一款专为Hive区块链设计的钱包扩展工具,适用于Chromium或Firefox浏览器。它允许用户安全地访问Hive区块链上的分布式应用(dApps),并提供创建和管理个人身份的功能。 项目技术分析 Hive Keychain Extension 通过将Hive Keychain API注入到每个网站的JavaScript环境中,使得dApps能够读取区块链上的数据。当dApps需要执行交易并写入区块链时,用户可以通过一个安全的界面来审查交易,然后选择批准或拒绝。 项目采用了模块化的开发方式,支持本地构建和调试。以下是构建和运行的基本步骤: 1. 克隆仓库:使用 git clone 命令克隆项目仓库。 2. 安装模块:通过 npm i 命令安装依赖模块。 3. 运行开发服务器:执行 npm run dev 命令,将创建两个文件夹 dist-dev 和

By Ne0inhk
PostgreSQL 企业级用户画像 + 行为分析实战:替代 Hive,10 亿数据秒级响应

PostgreSQL 企业级用户画像 + 行为分析实战:替代 Hive,10 亿数据秒级响应

很多企业用 MySQL 存用户画像(JSON 格式)、用 Hive 做行为分析,但面临 “MySQL 查询慢、Hive 维护复杂” 的两难。而 PostgreSQL 的 “JSONB + 分区表 + 窗口函数” 组合,堪称 “轻量级数据仓库”:既能像 MySQL 一样支撑高并发写入,又能像 Hive 一样做复杂分析,10 亿级用户行为数据秒级响应,还不用额外部署大数据集群,运维成本直接砍半。 这篇是纯企业级实战干货,聚焦 “用户画像存储 + 行为日志分析” 场景,用 PG 替代 MySQL+Hive 的组合,从表结构设计、数据写入、复杂分析到性能优化,每一步都给可复现的 SQL 和命令,

By Ne0inhk

Hive完整函数参考指南与实践

本文还有配套的精品资源,点击获取 简介:Hive是一个基于Hadoop的大数据仓库工具,支持通过类SQL语言HQL处理存储在HDFS中的大规模数据集。本文全面介绍Hive的内置函数,包括数据类型、算术、比较、逻辑、转换、字符串、数值、日期、聚合、分桶、分组、窗口、连接、子查询、分区以及用户自定义函数(UDF、UDAF、UDTF)等,旨在帮助用户高效地分析和管理大数据。 1. Hive数据类型与函数概述 数据类型与函数是任何数据库管理系统的基础。在Hive中,数据类型决定了数据的存储方式以及操作的范围和限制,而函数则为处理数据提供了强大的工具。本章节将带您简要了解Hive中数据类型的基本分类以及内置函数的基本概念,为进一步深入学习和使用Hive打下坚实的基础。 Hive数据类型 Hive的数据类型分为基本数据类型和复杂数据类型。基本数据类型包括数值型、布尔型、日期和时间类型、字符串类型等,它们是构建更复杂数据结构的基石。复杂数据类型如数组(Array)、映射(Map)、结构体(Struct)以及联合体(Union),提供了数据集合和复杂数据表示的方式,

By Ne0inhk