实战篇:Python开发monogod数据库mcp server看完你就会了

实战篇:Python开发monogod数据库mcp server看完你就会了
原创不易,请关注公众号:【爬虫与大模型开发】,大模型的应用开发之路,整理了大模型在现在的企业级应用的实操及大家需要注意的一些AI开发的知识点!持续输出爬虫与大模型的相关文章。

前言

目前mcp协议是给deepseek大模型插上工具链的翅膀,让大模型不仅拥有超高的推理和文本生成能力,还能具备执行大脑意识的工具能力!

如何开发一个mcp?

mcp是一种协议,指的是模型上下文协议 (Model Context Protocol)。

官方结成的mcp
https://github.com/modelcontextprotocol/python-sdk

mcp库
pip install mcp from mcp.server.fastmcp import FastMCP 

我们先来做一个简单的案例

from mcp.server.fastmcp import FastMCP import requests mcp = FastMCP("spider") @mcp.tool() def crawl(url: str) -> int:     """获取网页的源代码""" resposne = requests.get(url)     return response.text if __name__ == "__main__":     mcp.run(transport='stdio') #mcp.run(transport="sse") 
以上代码实现了FastMCP 库来创建一个简单的 MCP 服务器,它提供一个基本的工具(工具名:crawl),用于是实现源代码的获取。这是一个非常简单的爬虫mcp入门示例,适合理解 MCP 服务器的工作原理和 FastMCP 的基本用法。

代码分析

首先,从 mcp.server.fastmcp 模块中导入了 FastMCP 类。接着,创建了一个 FastMCP 类的实例,命名为 spider。

FastMCP 是服务器的核心类,它负责管理工具、资源和通信。参数「spider」是服务器的名称,用于标识这个 MCP 服务器。

然后,@mcp.tool() 是一个装饰器(decorator),它告诉 FastMCP 将 crawl 函数注册为一个可供客户端调用的工具。

文档字符串(“”“获取网页的源代码”“”):这是函数的描述,客户端(如 MCP Inspector)会显示这个描述,帮助用户理解工具的功能。这个工具可以被外部客户端调用!

例如通过 MCP 协议发送请求,传入url,服务器会返回它的网页源代码。

mcp.run(transport=‘stdio’) 启动 MCP 服务器,进入监听状态,等待客户端的连接和请求。transport=‘stdio’ 指定了通信方式为标准输入输出(Standard I/O)。这意味着服务器通过命令行的标准输入(stdin)和标准输出(stdout)与客户端通信,适合本地开发和测试。

mcp.run(transport=‘stdio’)启动 MCP 服务器,如果需要远程通信,可以更改为其他传输方式(如 ‘sse’,Server-Sent Events)。

fastapi-mcp库
pip install fastapi-mcp from fastapi_mcp import add_mcp_server 

案例分析

import requests from fastapi import FastAPI, HTTPException, Query from pydantic import BaseModel from typing import Optional from fastapi_mcp import add_mcp_server # Create a simple FastAPI app app = FastAPI( title=spider", description="A simple example API with integrated MCP server", version="0.1.0", ) @app.get("/items/{url}", response_model=Item, tags=["items"]) def crawl(url: Optional[str] = Query(None, description="get websource from url")) -> dict:     """获取网页的源代码""" resposne = requests.get(url)     return {"response":response.text} mcp_server = add_mcp_server( app, mount_path="/mcp", # 挂着mcp服务器的地址 name="Item API MCP", # mcp服务的名称 description="MCP server for the Item API", base_url="http://localhost:8000", describe_all_responses=False, describe_full_response_schema=False, ) if __name__ == "__main__": import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000) 
fastapi_mcp分析

上面的案例引入了fastapi和fastapi-mcp并实例化一个fastapi的类;

然后使用fastapi编写了一个方法用户获取一个url站点的源代码;

使用fastspi-mcp创建一个实例化的mcp_server,将上面的fastapi服务注册为一个mcp服务,可以配置mcp服务调用的路由为http://localhost:8000/mcp

最后导入uvicorn库,正常启动fastapi的服务;可以无缝的将代码转成mcp server!

以上两种实现MCP服务的方式,都可以学习下,尤其是如果你本身对fastapi比较的熟练,那么可以直接使用fastapi-mcp将服务注册为MCP server!如果熟悉python,但是不熟悉fastapi也可以使用官方推荐的mcp库,节省学习的成本,降低学习难度系数!

实战编写mongodb数据库查询MCP服务

import sys from datetime import datetime import traceback import uvicorn from fastapi_mcp import add_mcp_server from fastapi import FastAPI, status, HTTPException, Response, Query import motor.motor_asyncio app = FastAPI() ......代码省略..... # 根据结构式获取化合物计算属性的值 @app.get("/api/computes/", status_code=status.HTTP_200_OK, summary="根据结构式获取化合物计算属性的值") async def computed(smiles: Optional[str] = Query(None, description="Search smiles string")): result = ChemRdkit(smiles=smiles).computed if result and result.get("code") == 200: del result["code"] return ResponseModel(data=result, message="success") return ErrorResponseModel(error=result.get("error"), code=status.HTTP_404_NOT_FOUND, message=result.get("message")) # 获取单个化合物 @app.get("/api/chemicals/{casno}/", status_code=status.HTTP_200_OK, summary="根据casno获取单个化合物") async def chemicals(casno:str): """" 根据casno获取化合物 """ result = await chemical_get_data(casno=casno) if result: return ResponseModel(data=result, message="success") return ErrorResponseModel(error="数据不存在", code=status.HTTP_404_NOT_FOUND, message="数据不存在") # raise HTTPException(400, "Something went wrong") # 访问结构式图片 @app.get("/image/{filename}/", status_code=status.HTTP_200_OK, summary="访问结构式图片") async def get_image(filename: str): print(filename) # 获取图片二进制 image_content = struct_obj.get_struct(filename) if image_content: return Response(content=image_content, media_type="image/jpeg") # 不存在,通过filename获取casno号的基本信息,使用rdkit库根据smiles(存在)生成结构式图片 obj = await get_smiles(casno=filename.replace("_", "-")) if obj: ChemRdkit(smiles=obj.get("smiles", "")).struct(filename=obj.get("casno")) image_content = struct_obj.get_struct(filename) if image_content: return Response(content=image_content, media_type="image/jpeg") return None mcp_server = add_mcp_server( app, mount_path="/mcp", # 挂着mcp服务器的地址 name="Item API MCP", # mcp服务的名称 description="MCP server for the Item API", base_url="http://192.168.1.250:9999", describe_all_responses=False, describe_full_response_schema=False, ) if __name__ == "__main__": uvicorn.run(app, host="0.0.0.0", port=9999) 

结果输出

实现查询casno的基本信息,以及根据smiles生成化合物的属性信息

以上就可以把企业本地查询数据的一般能力集成到deepseek中了!让企业赶的上AI的快车!

搭建自己的本地MCP hub

Hub 服务器 (MCP Hub): 作为中央管理服务器,连接并管理多个 MCP 服务器。它为客户端提供统一的 API 入口,并将请求路由到相应的 MCP 服务器。

docker run --name=mcphub -p 3001:3000 --restart=always -d registry.cn-hangzhou.aliyuncs.com/samanhappy/mcphub 

浏览器输入:http://localhost:3001/

1panel MCP server

目前仅支持stdio的输出协议!

Ubuntu安装

curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sudo bash quick_start.sh 
其他MCP服务参考

https://github.com/punkpeye/awesome-mcp-servers/tree/main

送书福利

DeepSeek作为开源大模型的典范,融合了Transformer架构、MoE(混合专家)机制及自监督学习等前沿技术,在性能与扩展性上优势显著。为助力技术人员系统掌握DeepSeek的开发原理与应用,笔者撰写了本书,旨在为读者提供从理论到实践的全面指导。

只要关注+点赞+评论 评论区选择2人送书

联系方式

加入星球:
原创不易,点个关注!
不会错过后面的优质文章!
觉着写的不错的可以帮忙点点赞
关注公众号:【爬虫与大模型开发】
需要以上源代码的下面关注并私信!
活跃在一线的Python工程师分享自己学习之路
我创建了【爬虫与大模型开发】的知识星球
适合爱好爬虫及从事爬虫的同学
需要代码提示词加我星球!

需要完整代码扫码星球自提!

Read more

初识Langchain之AI语言大模型

初识Langchain之AI语言大模型

目录 1. 什么叫模型 2. 什么是大语言模型 2.1 神经网络 2.2 自监督学习 2.3 半监督学习 2.4 语言模型 3. 大语言模型的能力 1. 什么叫模型 今天我们来聊一聊什么叫做模型。 模型是⼀个从数据中学习规律的“数学函数”或“程序”。旨在处理和⽣成信息的算法,通常模仿⼈类的认知功能。通过从⼤型数据集中学习模式和洞察,这些模型可以进⾏预测、⽣成⽂本、图像或其他输出,从⽽增强各个⾏业的各种应⽤。 简单来说就是一个模型只会处理一件事,我们也可以把它理解为单个工作流,然后多个模型组合在一起就是语言大模型了。 它和工作流的区别在我看来就是它这个处理是需要提前训练。我们看下面这个图片,我们就像这样把下面这些狗狗的图片全部都喂给模型,并且我们需要给每一张图片都标注好这个是狗,这样再经过很多张这样图片让AI看,然后AI就学会分辨什么是狗了。

By Ne0inhk
【YF技术周报 Vol.01】OpenAI 国会指控 DeepSeek,字节发布 Seedance 2.0,Java 26 预览版来了

【YF技术周报 Vol.01】OpenAI 国会指控 DeepSeek,字节发布 Seedance 2.0,Java 26 预览版来了

🍃 予枫:个人主页 📚 个人专栏: 《Java 从入门到起飞》《读研码农的干货日常》 💻 Debug 这个世界,Return 更好的自己! 文章目录 * 🚨 1. OpenAI 向美国国会提交备忘录:指控 DeepSeek “非法蒸馏” * 🎬 2. 字节跳动发布 Seedance 2.0:对标 Sora 的视频生成模型 * 🛑 3. OpenAI 正式下线 GPT-4o,全面转向 GPT-5 * ☕ 4. Azul 发布《2026 Java 现状报告》:AI 开发中的 Java 渗透率攀升 * 💡 YF 的深度思考:护城河与工具链 👋 卷首语 大家好,我是予枫。 这是 《YF 技术周报》

By Ne0inhk
华为云Flexus+DeepSeek征文|云原生时代的AI智能:华为云Dify平台的技术洞察与应用价值:LLM+Bocha如何打造出三体浏览器

华为云Flexus+DeepSeek征文|云原生时代的AI智能:华为云Dify平台的技术洞察与应用价值:LLM+Bocha如何打造出三体浏览器

前引:人工智能正以前所未有的速度重塑产业格局。作为技术创新的前沿阵地,华为云Dify平台应运而生,为企业级AI应用提供了一个全新的技术生态系统。本文将深入探讨DeepSeek大模型推理服务在实际场景中的落地实践,揭示云原生时代AI技术的革命性价值! 通过对Dify平台的深入解析,我们将展现AI技术从理论走向实践的关键路径,为企业数字化转型提供有价值的技术洞察和实践指南。本文不仅是一次技术探索,更是对未来智能技术发展的前瞻性思考,下面开始探索~ 目录  一、大模型推理服务的发展趋势 二、华为云Dify平台的战略定位 三、Dify平台的技术架构与创新 (1)平台核心技术解析 (2)DeepSeek模型的推理机制 (3)云原生架构的优势与特点 四、DeepSeek R1/V3商用服务开通教程 五、商用服务开通体验 (1)开通流程的便捷性 (2)费用透明与灵活性 (3)服务性能与拓展性 七、华为云云服务单机部署教程 八、CCE高可用部署 (1)准备工作 创建桶: 创建委托: 委托授权: 创建秘钥: (2)部署实践

By Ne0inhk
2026年8款AI大模型实测排名!国产杀入全球前10,最便宜只要2毛钱

2026年8款AI大模型实测排名!国产杀入全球前10,最便宜只要2毛钱

先说结论:按需求直接选 2026年大模型格局已经从"美国领跑、中国追赶"变成了真正的多极竞争。如果你不想看完全文,这是按场景给出的推荐: * 日常对话和写作:Claude Opus 4.6(综合体验最佳)、豆包 Seed 2.0 Pro(中文国产第一) * 写代码:Claude Opus 4.6 / Gemini 3.1 Pro(旗舰级)、GLM-5 / DeepSeek V3.2(开源最强) * 数学和推理:GPT-5.2(AIME 2025 满分)、豆包 Seed 2.0 Pro(IMO 金牌级)

By Ne0inhk