Python MCP 工具开发入门:Server、Client 和 LLM 集成

Python MCP 工具开发入门:Server、Client 和 LLM 集成

1. 从零开始:如何用 Python 创建你的第一个 MCP(Model Context Protocol)

1.1 什么是 MCP?

Model Context Protocol (MCP) 是一个标准化协议,允许应用程序与大语言模型(LLM)进行安全、结构化的交互。通过 MCP,你可以:

  • 为 LLM 提供自定义工具和资源
  • 实现 LLM 和外部系统的无缝集成
  • 构建可复用的、模块化的 AI 应用

1.2 核心概念

1.2.1 MCP Server(服务器)

定义工具、资源和提示词,通过 stdio 或其他传输方式提供给客户端。

1.2.2 MCP Client(客户端)

连接到 MCP 服务器,获取工具列表,调用工具,并与 LLM 集成。

1.2.3 Tools(工具)

服务器暴露给 LLM 的可调用函数,LLM 可以根据用户需求调用这些工具。

1.3 项目结构

hello-world/ ├── server.py # MCP 服务器定义 ├── client-deepseek.py # 使用 Deepseek LLM 的客户端 ├── client.py # 基础客户端 ├── pyproject.toml # 项目配置 └── uv.lock # 依赖锁定文件 

2. 第一步:创建 MCP 服务器

2.1 安装依赖

0

cd hello-world UV_INDEX_URL=https://mirrors.aliyun.com/pypi/simple/ uv sync

主要依赖:

  • mcp[cli]>=1.6.0 - MCP 框架
  • openai>=1.75.0 - OpenAI 兼容的 LLM 客户端
  • python-dotenv>=1.1.0 - 环境变量管理

2.2 编写 Server 端代码

创建 server.py

from mcp.server.fastmcp import FastMCP # 创建一个 MCP 服务器实例 mcp = FastMCP("Demo")# 定义一个工具:两数相加@mcp.tool()defadd(a:int, b:int)->int:"""Add two numbers"""return a + b # 定义一个资源:个性化问候@mcp.resource("greeting://{name}")defget_greeting(name:str)->str:"""Get a personalized greeting"""returnf"Hello, {name}!"# 启动服务器if __name__ =="__main__": mcp.run("stdio")

核心概念解析:

  • FastMCP - 简化的 MCP 服务器框架
  • @mcp.tool() - 装饰器定义工具函数
  • @mcp.resource() - 装饰器定义资源(带 URI 模式)
  • mcp.run(“stdio”) - 通过标准输入输出运行服务器

3. 第二步:创建 MCP 客户端

3.1 基础客户端(无 LLM)

client.py 展示了如何直接调用工具:

import sys import asyncio from mcp import ClientSession from mcp.client.stdio import stdio_client, StdioServerParameters asyncdefmain():# 1. 启动 MCP 服务器进程 server_script ="server.py" params = StdioServerParameters( command=sys.executable, args=[server_script],) transport = stdio_client(params) stdio, write =await transport.__aenter__()# 2. 建立客户端会话 session =await ClientSession(stdio, write).__aenter__()await session.initialize()# 3. 调用工具 result =await session.call_tool("add",{"a":3,"b":5})print(f"3 + 5 = {result}")# 4. 关闭连接await session.__aexit__(None,None,None)await transport.__aexit__(None,None,None)if __name__ =="__main__": asyncio.run(main())

3.2 与 LLM 集成的客户端

client-deepseek.py 展示了如何让 LLM 自动调用工具:

import sys import asyncio import os import json from mcp import ClientSession from mcp.client.stdio import stdio_client, StdioServerParameters from openai import OpenAI from dotenv import load_dotenv load_dotenv()asyncdefmain():# 1. 连接到 MCP 服务器print(">>> 初始化加法 LLM 工具客户端") server_script ="server.py" params = StdioServerParameters( command=sys.executable, args=[server_script],) transport = stdio_client(params) stdio, write =await transport.__aenter__() session =await ClientSession(stdio, write).__aenter__()await session.initialize()print(">>> 连接到MCP服务器成功")# 2. 初始化 LLM 客户端(使用通义千问) client = OpenAI( api_key=os.getenv("QWEN_API_KEY"), base_url=os.getenv("QWEN_BASE_URL"))# 3. 从 MCP 服务器获取工具列表 resp =await session.list_tools() tools =[{"type":"function","function":{"name": tool.name,"description": tool.description,"parameters": tool.inputSchema }}for tool in resp.tools]print("可用工具:",[t["function"]["name"]for t in tools])# 4. 主交互循环whileTrue:print("\n请输入你的加法问题(如:5加7是多少?或'退出'):") user_input =input("> ")if user_input.strip().lower()=='退出':breakprint(f"\n📝 用户问题: {user_input}")# 构造对话 messages =[{"role":"system","content":"你是一个加法助手,遇到加法问题请调用工具add,最后用自然语言回答用户。"},{"role":"user","content": user_input}]# 5. LLM 与工具调用循环 iteration =0whileTrue: iteration +=1print(f"\n🔄 第 {iteration} 次 LLM 调用...")# 调用 LLM response = client.chat.completions.create( model="qwen-plus", messages=messages, tools=tools, tool_choice="auto") message = response.choices[0].message messages.append(message)# 检查是否有工具调用ifnot message.tool_calls:print(f"\n✅ LLM 最终回答:")print(f"\nAI 回答:\n {message.content}")break# 6. 执行工具调用for tool_call in message.tool_calls: args = json.loads(tool_call.function.arguments)print(f"\n🔧 调用工具: {tool_call.function.name}")print(f"📥 工具参数: {args}") result =await session.call_tool(tool_call.function.name, args)print(f"📤 工具返回结果: {result}")# 将工具结果加入对话历史 messages.append({"role":"tool","content":str(result),"tool_call_id": tool_call.id})await session.__aexit__(None,None,None)await transport.__aexit__(None,None,None)print(">>> 客户端已关闭")if __name__ =="__main__": asyncio.run(main())

4. 第三步:配置环境变量

创建或修改 .env 文件:

# 通义千问 API 配置(使用阿里云 DashScope) QWEN_API_KEY=your-api-key-here QWEN_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 

5. 第四步:运行程序

5.1 方式一:两个终端分别运行

终端 1:启动服务器

cd 01-hello-world UV_INDEX_URL=https://mirrors.aliyun.com/pypi/simple/ uv run python server.py 

终端 2:运行客户端

cd 01-hello-world UV_INDEX_URL=https://mirrors.aliyun.com/pypi/simple/ \QWEN_API_KEY="your-api-key"\QWEN_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"\ uv run python client-deepseek.py 

5.2 方式二:非交互式测试

cd 01-hello-world timeout60bash -c 'echo -e "15加8等于多少?\n退出" | \ UV_INDEX_URL=https://mirrors.aliyun.com/pypi/simple/ \ QWEN_API_KEY="your-api-key" \ QWEN_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1" \ uv run python client-deepseek.py'

6. 执行流程示例

当用户输入 “15加8等于多少?” 时:

📝 用户问题: 15加8等于多少? 🔄 第 1 次 LLM 调用... 🔧 调用工具: add 📥 工具参数: {'a': 15, 'b': 8} 📤 工具返回结果: meta=None content=[TextContent(type='text', text='23', annotations=None)] isError=False 🔄 第 2 次 LLM 调用... ✅ LLM 最终回答: AI 回答: 15加8等于23。 

7. 关键要点

7.1 异步编程

MCP 使用 asyncio,所有网络操作都是异步的:

asyncdefmain():# 异步操作await session.initialize() result =await session.call_tool(...)

7.2 工具定义

简单易用的装饰器风格:

@mcp.tool()defmy_tool(param1:int, param2:str)->str:"""Tool description"""returnf"Result: {param1}{param2}"

7.3 工具调用链

LLM 根据需要多次调用工具,直到得到最终答案:

用户输入 → LLM 分析 → 调用工具 → 获得结果 → LLM 再次分析 → 最终回答 

7.4 消息历史

保持对话历史以便 LLM 理解上下文:

messages =[{"role":"system","content":"..."},{"role":"user","content":"..."},{"role":"assistant","content":"..."},{"role":"tool","content":"..."},]

8. 扩展应用

8.1 添加更多工具

@mcp.tool()defmultiply(a:int, b:int)->int:"""Multiply two numbers"""return a * b @mcp.tool()defdivide(a:float, b:float)->float:"""Divide two numbers"""if b ==0:raise ValueError("Cannot divide by zero")return a / b 

8.2 添加资源

@mcp.resource("user://{user_id}")defget_user_info(user_id:str)->str:"""Get user information"""returnf"User {user_id} information"
8.2.1 什么是资源(Resource)?

@mcp.resource() 装饰器用于定义一个可以根据参数返回不同数据的接口。资源是不同于工具的数据取…

资源 vs 工具的对比:

特性Resource(资源)Tool(工具)
用途提供只读或结构化的数据执行操作或计算
调用方式read_resource("uri://path")call_tool("name", args)
参数传递URI 路径参数函数参数
使用场景获取文件、查询数据库计算、修改数据
8.2.2 URI 模式详解
@mcp.resource("greeting://{name}")defget_greeting(name:str)->str:"""Get a personalized greeting"""returnf"Hello, {name}!"

语法分解:

部分含义说明
@mcp.resource()资源装饰器定义资源的标记
"greeting://"资源协议(Scheme)user://file://api://
{name}动态参数占位符类似路由参数,接收不同值
get_greeting(name: str)处理函数参数名必须与 URI 占位符一致

工作流程:

客户端请求 greeting://Alice ↓ MCP 框架识别 URI 模式 ↓ 提取参数 name = "Alice" ↓ 调用函数 get_greeting("Alice") ↓ 返回 "Hello, Alice!" 给客户端 
8.2.3 常见资源示例

示例 1:用户信息资源

@mcp.resource("user://{user_id}")defget_user_info(user_id:str)->str: users ={"1":"Alice","2":"Bob"}return users.get(user_id,"Not found")# 客户端调用:await session.read_resource("user://1")# 返回:Alice

示例 2:文件资源(多参数)

@mcp.resource("file://{folder}/{filename}")defread_file(folder:str, filename:str)->str:# 注意:参数名必须与 URI 中的占位符一致 path =f"{folder}/{filename}"try:withopen(path,'r')as f:return f.read()except FileNotFoundError:return"File not found"# 客户端调用:await session.read_resource("file://docs/readme.txt")# 返回:文件内容

示例 3:API 文档资源

@mcp.resource("docs://api/{version}")defget_api_docs(version:str)->str: docs ={"v1":"API v1: 支持基础功能","v2":"API v2: 新增高级功能"}return docs.get(version,"Version not found")

示例 4:多参数资源

@mcp.resource("product://{category}/{product_id}")defget_product(category:str, product_id:str)->str:# 访问歩骤:product://electronics/12345returnf"Product {product_id} from {category}"
8.2.4 客户端中使用资源
# 方法 1:直接读取资源 result =await session.read_resource("greeting://Alice")print(result)# 输出: Hello, Alice!# 方法 2:列出所有资源 resources =await session.list_resources()for resource in resources.resources:print(f"Resource: {resource.uri} - {resource.description}")
8.2.5 资源 URI 命名最佳实践

✅ 好的设计:

@mcp.resource("user://{user_id}")# 清晨的协议名@mcp.resource("file://{path}/{filename}")# 多参数路径@mcp.resource("docs://api/{version}")# 泊根路径

❌ 避免的做法:

@mcp.resource("res://{id}")# ❌ 不清楚的协议名@mcp.resource("user://{user_id}")defget_user(uid:str):# ❌ 参数名不匹配!pass

8.3 自定义 System Prompt

system_prompt =""" 你是一个数学助手。 当用户问到加法、减法、乘法、除法时,请调用相应的工具。 最后用清晰的中文回答用户的问题。 """ messages =[{"role":"system","content": system_prompt},{"role":"user","content": user_input}]

9. 常见问题

9.1 Q1: 如何调试 MCP 服务器?

使用日志输出:

import logging logging.basicConfig(level=logging.DEBUG) logger = logging.getLogger(__name__)@mcp.tool()defmy_tool(x:int): logger.info(f"Tool called with x={x}")return x *2

9.2 Q2: 如何处理工具调用错误?

try: result =await session.call_tool(tool_name, args)except Exception as e:print(f"Tool call failed: {e}")# 错误恢复逻辑

9.3 Q3: 如何支持多轮对话?

保持 messages 列表,每次交互都添加新消息:

whileTrue: user_input =input("> ") messages.append({"role":"user","content": user_input})# ... 处理响应,添加到 messages ...

10. 性能优化建议

  1. 连接复用 - 不要频繁创建/销毁连接
  2. 超时设置 - 为 LLM 调用设置合理超时
  3. 错误重试 - 实现指数退避重试机制
  4. 日志级别 - 生产环境减少日志输出

11. 总结

通过 MCP,你可以轻松构建强大的 AI 应用,让 LLM 能够访问和使用自定义工具。核心步骤是:

  1. 定义工具(Server)
  2. 连接到服务器(Client)
  3. 让 LLM 自动调用工具
  4. 处理工具结果并返回给用户

希望这个教程能帮助你开始 MCP 的学习之旅!

12. 参考资源

Read more

用DeepSeek和Cursor从零打造智能代码审查工具:我的AI编程实践

💂 个人网站:【 摸鱼游戏】【神级代码资源网站】【星海网址导航】摸鱼、技术交流群👉 点此查看详情 引言:AI编程革命下的机遇与挑战 GitHub统计显示,使用AI编程工具的开发者平均效率提升55%,但仅有23%的开发者能充分发挥这些工具的潜力。作为一名全栈工程师,我曾对AI编程持怀疑态度,直到一次紧急项目让我彻底改变了看法。客户要求在72小时内交付一个能自动检测代码漏洞、优化性能的智能审查系统,传统开发方式根本不可能完成。正是这次挑战,让我探索出DeepSeek和Cursor这对"黄金组合"的惊人潜力。 一、工具选型:深入比较主流AI编程工具 1.1 为什么最终选择DeepSeek+Cursor? 经过两周的对比测试,我们发现不同工具在代码审查场景的表现差异显著: 工具代码理解深度响应速度定制灵活性多语言支持GitHub Copilot★★★☆★★★★★★☆★★★★Amazon CodeWhisperer★★☆★★★☆★★★★★★☆DeepSeek★★★★☆★★★★★★★☆★★★★☆Cursor★★★☆★★★★☆★★★★★★★★ 关键发现: * Dee

By Ne0inhk

DeepSeek各版本说明与优缺点分析_deepseek各版本区别

DeepSeek各版本说明与优缺点分析 DeepSeek是最近人工智能领域备受瞩目的一个语言模型系列,其在不同版本的发布过程中,逐步加强了对多种任务的处理能力。本文将详细介绍DeepSeek的各版本,从版本的发布时间、特点、优势以及不足之处,为广大AI技术爱好者和开发者提供一份参考指南。 1. DeepSeek-V1:起步与编码强劲 DeepSeek-V1是DeepSeek的起步版本,这里不过多赘述,主要分析它的优缺点。 发布时间: 2024年1月 特点: DeepSeek-V1是DeepSeek系列的首个版本,预训练于2TB的标记数据,主打自然语言处理和编码任务。它支持多种编程语言,具有强大的编码能力,适合程序开发人员和技术研究人员使用。 优势: * 强大编码能力:支持多种编程语言,能够理解和生成代码,适合开发者进行自动化代码生成与调试。 * 高上下文窗口:支持高达128K标记的上下文窗口,能够处理较为复杂的文本理解和生成任务。 缺点: * 多模态能力有限:该版本主要集中在文本处理上,缺少对图像、语音等多模态任务的支持。 * 推理能力较弱:尽管在自然语言

By Ne0inhk
假网站排全网第二,真官网翻五页都找不到!NanoClaw创始人破防:SEO之战,我快要输了

假网站排全网第二,真官网翻五页都找不到!NanoClaw创始人破防:SEO之战,我快要输了

整理 | 苏宓 出品 | ZEEKLOG(ID:ZEEKLOGnews) 自从 OpenClaw 爆火之后,各种“Claw”项目接连出现,其中以安全优化版 NanoClaw 最为知名。它的核心代码仅有 4000 行,却获得了 AI 大牛 Andrej Karpathy 的点赞。 可谁也没想到,这款口碑极佳的开源项目,近来竟被一个仿冒网站抢了风头。 投诉无门之下,NanoClaw 创始人 Gavriel Cohen 在 X 社交平台上无奈发文怒斥:谷歌搜索错误地将假网站排在真官网前面,不仅破坏了项目声誉,还埋下了严重的安全隐患,而他费尽心力,却只能哀叹一句——“我正在为自己的开源项目打 SEO 战,但我快要输了。” 那么,NanoClaw 究竟发生了什么?又是怎么走红的?事情还要从 OpenClaw

By Ne0inhk
曝Windows 12将于今年发布?以AI为核心、NPU成「硬件门槛」,网友吐槽:“不想要的全塞进来了”

曝Windows 12将于今年发布?以AI为核心、NPU成「硬件门槛」,网友吐槽:“不想要的全塞进来了”

整理 | 郑丽媛 出品 | ZEEKLOG(ID:ZEEKLOGnews) 当年,微软一句“Windows 10 将是最后一个版本”的表态,让不少用户以为 Windows 进入了“只更新、不换代”的时代。但几年过去,现实却完全不同。 在 Windows 11 发布之后,如今关于 Windows 12 的传闻再次密集出现。从内部代号、代码片段,到硬件厂商的暗示与 OEM 预热标签,种种线索拼在一起,勾勒出一个明显的趋势——这不会只是一次常规升级,而更像是一次围绕 AI 的平台级重构。 更关键的是,这次争议,可能远比当年 TPM 2.0 更大。 精准卡位 Windows 10 退场的时间?

By Ne0inhk